Suivre ce blog
Administration Créer mon blog

Texte libre


Pourquoi ce blog ?

Cet ensemble de textes a été conçu à la demande de lecteurs de la revue en ligne Automates-Intelligents souhaitant disposer de quelques repères pour mieux appréhender le domaine de ce que l’on nomme de plus en plus souvent les "sciences de la complexité"... lire la suite

Recherche

13 décembre 2014 6 13 /12 /décembre /2014 20:18


Jean-Paul Baquiast  - 10/12/2014

 

 

 

 

 

 

Prologue

Dans la lutte ininterrompue que se livrent les grands puissances pour la domination du monde, la domination spatiale a toujours été, depuis les succès des V2 allemands, un objectif essentiel. Il faut dominer l'espace de la même façon que l'on cherche à dominer le monde. Les américains ont d'ailleurs forgé un mot, intraduisible par les grands enfants de choeur que sont les européens : "full spatial dominance".

Les Etats-Unis y ont toujours réussi parfaitement. Faut-il rappeler qu'ils dominent l'espace militaire, avec notamment un réseau incomparable de satellites. Ils dominent aussi très largement l'espace des télécommunications et tout ce qui s'y rattache, c'est-à-dire l'espionnage à très grande échelle. Dans le domaine du spatial scientifique, ils sont là où il est essentiel d'être, avec par exemple des robots depuis longtemps opérationnels sur la planète Mars.

Cependant, depuis qu'ils avaient gagné la course à la Lune avec les succès des missions Apollo dans les années 1960-1970, ils avaient semblé se désintéresser des missions habitées (avec équipage). Un calcul économique simple leur avait montré que l'entretien de la Station spatiale internationale et des navettes permettant d'y envoyer des astronautes et du ravitaillement ne leur apportait aucun bénéfice concret. Ils avaient donc laissé les Russes et les Européens s'en occuper.

Cependant, si la Russie semblait hors jeu dans la course à l'exploration planétaire, d'autres Etats s'y sont lancés depuis quelques années, notamment la Chine et l'Inde. Les Américains se devaient de réagir. C'est dans cette volonté que s'inscrit le programme Orion, sur lequel nous donnons quelques informations ci-dessous. On imagine le prestige acquis aux yeux de 11 milliards de Terriens par le pays qui, le premier, retournerait sur la Lune pour y installer une station permanente et, à fortiori, qui mettrait un peu plus tard en place une telle station sur Mars. Nous tenons nos lecteurs, sur ce site, régulièrement informés des pas que font en ce sens la Chine et l'Inde. Les progrès sont lents, mais assurés. Ils sont soutenus par une volonté politique sans faille, et semble-t-il, par l'enthousiasme spontané des citoyens, prêts à supporter toutes les économies nécessaires au déploiement de ces projets.

Et l'Europe

Qu'en est-il de l'Europe ? La réponse est simple, l'Europe, hormis quelques laboratoires scientifiques, n'a rien à faire de l'espace. Il s'agit moins des citoyens, dont l'enthousiasme récent face aux résultats de la mission Rosetta aux prises avec la comète Churyumov-Gerasimenko ont surpris plus d'un observateur, mais des gouvernements et des intérêts spéculatifs à court terme qui les financent.

Seule la France fait encore un peu exception. Certes le temps n'est plus où le gouvernement d'inspiration gaulliste finançait sans hésiter des projets audacieux dont il reste encore les bijoux de famille que sont le CNES (Centre national d'études spatial) et une industrie aérospatiale d'une puissance exceptionnelle pour un pays comme la France, bien moins riche que ne l'est l'Allemagne. Néanmoins, quel gouvernement français a-t-il usé de son autorité pour imposer au sein de l'Union européenne le beau programme Galiléo, très largement initialisé par la France et qui est en train de perdre toute actualité face aux systèmes de positionnement global par voie satellitaire (GPS) américain, russe, chinois, indien et pourquoi pas un jour un système qatari ou saoudien (financé par nos achats de pétrole) ?

Non, nous sommes injuste. L'Europe n'a pas entièrement démissionné dans un domaine essentiel, celui des lanceurs civils. Elle le doit pour l'essentiel à la France, voulant s'affranchir de la domination américaine. Chacun connait la saga Ariane, lointaine descendante d'un programme spatial de la 4e République, repris et relancé par le gaullisme. Le 19 décembre 1961, le gouvernement de Michel Debré créait le Centre national d’études spatiales précité. Chargé de coordonner toutes les activités spatiales du pays, cet organisme visait principalement à convaincre les Français – mais aussi les Européens – de ne pas se laisser distancer par les Américains et les Soviétiques.

Cette date marquait le début de la politique spatiale française qui conduisait le 26 novembre 1965 au lancement d’Astérix, le premier satellite artificiel français, à l’aide de la fusée nationale Diamant-A. Prévu et annoncé, l’événement n’était pas une surprise, hormis peut-être l’exploit technique qui fit de la France la troisième puissance mondiale, derrière l’URSS (1957) et les États-Unis (1958). Aux yeux de Charles de Gaulle, accéder à l’espace par ses propres moyens incarnait un acte d’indépendance, mais aussi un sentiment de grandeur : la France était sur le point de maîtriser un ensemble de technologies la plaçant au même rang que les deux superpuissances. La fusée Diamant, par ailleurs, découlait de la recherche balistique des "Pierres précieuses", un programme militaire engagé dès 1959 par de Gaulle. Certains ingénieurs militaires, qui travaillaient déjà sur des projets d’engins-fusées depuis le début des années cinquante, ont proposé de convertir l’une de leurs études en un lanceur spatial. Cette démarche présentait l’avantage d’éviter tout programme redondant. Les scientifiques, puis les politiques ont accepté et soutenu cette conception. Qui aujourd'hui en France se souvient de cet anniversaire de novembre 1965 ?

L’accès de la France, à cette époque, au rang de troisième puissance spatiale a-t-il contribué à la construction de l’Europe spatiale qui s’est esquissée à la même époque ? Sans aucun doute, mais il a fallu pour cela des efforts considérables de la part des scientifiques et des industriels de l'espace pour convaincre les gouvernements européens qu'un relais s'imposait au niveau de l'Europe. Ce fut le début de la saga de l'Agence spatiale européenne (Esa) et d'Arianespace, qui nous ne pouvons évidemment pas relater ici.

Leurs succès sont connus, mais ils sont les fruits d'investissements engagés il y a plus de trente ans. Les efforts s'essoufflent aujourd'hui. L'actuel lanceur lourd Ariane 5 devait impérativement être remplacé. Pour cela il fallait que les gouvernements acceptent d'engager les dépenses nécessaires. Jusqu'à ces dernières semaines, on a pu craindre que, prenant prétexte de la crise, mais en fait par incompétence, ils n'en feraient rien. De plus les rivalités entre pays menaçaient de tuer le futur projet Ariane comme elles l'on fait du programme Galileo. Cependant quelques esprits clairvoyants, notamment au sein des membres de l'Esa, ont su convaincre les décideurs. Un accord sur un programme Ariane 6 vient d'être annoncé. Nous donnons quelques détails à son sujet dans la seconde partie du présent article.

Espérons qu'il ne sera pas remis en cause. Un lanceur n'est pas suffisant pour permettre un débarquement sur la Lune, néanmoins un jour il pourra y aider. Tout au moins, en ce qui concerne la France, si l'opinion publique cessait de ne s'intéresser qu'au football et au travail du dimanche, si un gouvernement plus volontariste et plus éclairé montrait que les emplois de demain en dépendront très largement.

Première Partie : Le programme Orion de la Nasa

Ceux, nombreux dans le monde, qui considéraient, depuis la réussite de la mission Apollo 11 sur la Lune en 1969, que seule la Nasa était capable de tels exploits, s'indignaient du fait que la réduction récente des crédits alloués à l'Agence condamnait celle-ci à l'inaction. Inaction d'autant plus dommageable pour la Nasa et l'Amérique que de nouveaux concurrents très sérieux sont en train de se mettre en place, Chine et même Inde en premier lieu. Ceux-ci visent non seulement un retour sur la Lune mais une mission habitée autour de Mars ou d'un de ses satellites, voire un débarquement sur la Planète Rouge, avec retour, à échéance de 15 à 20 ans.

Or les mêmes ont accueilli avec un fort battage médiatique le lancement réussi d'une capsule baptisée Orion par la Nasa il y a quelques jours. L'affaire a été présenté à l'opinion mondiale non seulement comme une renaissance de la Nasa – ce qui n'est pas faux – mais comme le premier pas réussi pour une mission habitée sur Mars. Le prestige de l'Amérique, bien contrarié depuis quelques années, en ressortait grandi. Le journal Le Monde lui-même ne publie-t-il pas le 5 décembre un article titrant "Orion en route vers Mars"?

Les observateurs objectifs tiennent à remettre les choses au point.
Certes la Mission Orion s'est conclue par un succès, mais il ne s'agissait encore que de l'envoi et du retour sur Terre d'une capsule inhabitée, après une petite excursion dans l'orbite terrestre. L'opération avait d'abord pour but de tester la ré-entrée du bouclier thermique dans l'atmosphère sans échauffements catastrophiques Celui-ci était le plus grand jamais construit pour une capsule, avec 5 m de diamètre, soit 50 cm de plus que celui qui protégea le rover Curiosity durant sa descente dans l'atmosphère martienne. Bien moins dense que celle de la Terre, l'atmosphère martienne est également dangereuse quand elle est abordée à très haut vitesse.

Le vol a également servi à valider les systèmes de la capsule, pour lesquels la Nasa avait laissé se disperser ses compétences depuis sa cure de rigueur. Il s'agit de l’avionique, le contrôle d’attitude et surtout les parachutes. Ceux-ci sont les seuls dispositifs permettant, sauf à mettre en place de coûteux systèmes de rétro-fusées, d'assurer un atterrissage (ou amerrissage) à vitesse réduite.

Le lanceur utilisé pour propulser les 21 tonnes d'Orion a été la version lourde du Delta 1V . Ce dernier est la dernière version d'une famille développées par Boeing en partenariat avec l'US Air Force. Les lanceurs de la famille Delta IV peuvent placer en orbite de transfert des charges dont le poids varie entre 4.321 kg et 12.757 kg, et en orbite basse, dite LEO des charges allant jusqu'à 23.000 kg.

Ajoutons que l'Agence spatiale européenne qui participe au développement du futur véhicule spatial Orion fournira le module de service, s'appuyant sur son expérience dans le domaine des véhicules ATV entièrement automatiques utilisé avec succès pour des missions de ravitaillement de la Station spatiale Internationale. Il s'agira de ESM, European service module. L'ESA assurera la propulsion, l’alimentation électrique, le contrôle thermique et les composants vitaux des versions futures de la capsule.

Remise en proportion

Les spécialistes de l'espace tiennent cependant, sans minimiser le succès de cette première mission Orion, à remettre la chose en proportion. Il ne s'agit absolument pas pour le moment de préparer une mission habitée autour de Mars. La Nasa elle-même fait remarquer qu'elle n'a pas à ce jour reçu la moindre instruction gouvernementale lui enjoignant de se préparer à une mission martienne.

De ce fait, Orion reste une opération mal financée, incapable en l'état de transporter des astronautes dans de simples vols orbitaux avant 2021 au plus tôt, sans compter les retards éventuels, ce que font les Russes depuis des années. Lorsque les recherches et développements nécessaires à une mission martienne auront abouti, Orion ne sera, selon les experts, qu'un lointain souvenir.

Pour ces experts, la Nasa s'est rendu un mauvais service à elle-même en laissant s'accréditer, par l'intermédiaire de journalistes incompétents ou tendancieux, l'idée qu'elle était dorénavant en route pour Mars. Les concurrents chinois sont bien plus prudents. Ils procèdent pas à pas. Certes ils ne se cachent pas d'avoir de grandes ambitions, mais ils ne cherchent pas à donner le change sur les difficultés qu'ils devront résoudre.

Deuxième Partie : Le programme européen Ariane 6

Dans le même temps, soit le 2 décembre 2014, les ministres chargés de l'espace des pays membres de l'Agence spatiale européenne (ESA) ont décidé le lancement du programme Ariane 6. Il s'agira d'un nouveau lanceur européen présenté comme "modulaire", "fiable" et "compétitif", destiné à remplacer Ariane 5. Celle-ci avec 62 lancements successifs réussis depuis 2002, a fait les preuves de sa fiabilité. Mais elle est désormais jugée trop coûteuse pour le marché international. Lancer une Ariane 5 coûterait environ 220 millions de dollar alors que les prix de la concurrence sont estimés pour les fusées américaines Delta IV à 170 millions ou Atlas V à 125 million, pour le lanceur russe Proton M à 100 millions, pour une fusée chinoise Longue marche à 60 millions), voire pour les entreprises spatiales privées américaines (dont la fiabilité reste à prouver) aux alentours de 40 millions.

Ariane 5 a été conçue à partir de 1995, à une époque où l'on pensait que les satellites, toujours plus perfectionnés et performants, allaient être aussi toujours plus lourds. Mais la miniaturisation de l'électronique et des composants a considérablement changé le cahier des charges. Et la priorité aujourd'hui est moins de mettre de lourdes charges en orbite que de pouvoir les y placer dans un délai court et à moindre coût.

Après diverses péripéties, le 18 septembre 2014, le CNES, l'agence spatiale française, avait proposé une nouvelle configuration, déclinable en deux versions, avec un seul niveau à poudre et deux niveaux à propulsion liquide. Elle devrait être proposée, selon les besoins, en deux versions : une version "A62" avec deux propulseurs d'appoint et une version lourde "A64" avec quatre propulseurs.
L'Allemagne, longtemps réticente, a finalement donné son accord au projet. L'enveloppe demandée aux ministres chargés de l'Espace des 20 pays membres de l'ESA et du Canada pour le développement d'Ariane 6 s'élève à 3,8 milliards d'euros, en incluant l'évolution du petit lanceur de la gamme européenne, Vega, développé par l'Italie.

 

Ainsi, Ariane 6 devrait être adaptée à la fois aux besoins institutionnels (satellites scientifiques, sondes spatiales...) et aux vols commerciaux (satellites télécoms, télévision...) qui représentent deux-tiers des lancements. Nous sommes évidemment loin de vols européens vers Mars. Cependant un premier pas en ce sens pourrait être engagé, si l'Europe décidait de relever les défis américains et chinois. Une coopération avec la Russie, dans une telle perspective, déjà bien établie notamment au sein du Centre spatial de Kourou, serait souhaitable et possible. Mais aujourd'hui, et c'est lamentable, l'Europe paralysée par les "sanctions" imposées par l'Amérique, n'en prend pas le chemin.

Partager cet article

13 décembre 2014 6 13 /12 /décembre /2014 18:47


Jean-Paul Baquiast 08/12/2014

Première partie. Trois ouvrages

Trois ouvrages remarquables, parus presque simultanément, invitent le lecteur, qu'il soit ou ne soit pas scientifique, à se poser la question en termes nouveaux. Bien que leurs conclusions soient différentes, elles pourraient en fait s'avérer comme complémentaires. Par ce terme nous voulons dire qu'elles pourraient être retenues et développées simultanément par un esprit humain s'intéressant à la question de l'univers.

Aurélien Barrau. Des univers multiples. A l'aube d'une nouvelle cosmologie. Dunod 2014

Dans ce livre, Aurélien Barrau, physicien et cosmologiste français, que nous avions précédemment présenté à nos lecteurs développe les hypothèses relatives à la question des univers multiples, dite aussi du multivers, dont il est, entre autres questions intéressant la cosmologie, un spécialiste très réputé.

Nos lecteurs connaissent déjà passablement la question, que nous avons abordée dans divers articles ou recensions d'ouvrages. Le livre d'Aurélien Barrau présenté ici constitue en premier lieu un inventaire des diverses approches de la question du multivers. Il s'agit d'abord des théories (ou plutôt théories hypothétiques) ayant été formulée depuis une centaine d'années. Elles sont très différentes. En l'absence de preuves expérimentales indiscutables, elles méritent dont toutes d'être étudiées ou du moins gardées en l'esprit, sans en éliminer a priori aucune.

L'auteur en fait la liste: multivers parallèles, multivers temporels sans changement de lois, multivers temporels avec changement de lois, multivers de trous noirs sans changement de lois, multivers de trous noirs avec changement de lois, multivers spatiaux sans changement de lois, multivers spatiaux avec changement de lois, multivers spatiaux avec possible changement de lois. Nous reviendrons sur l'hypothèse du changement des lois (lois fondamentales de la physique) à propos des deux livres suivants.

Rappelons que ces théories, bien qu'hypothétiques, ne sont pas sans justifications, puisqu'elles découlent pour la plupart d'extensions de la mécanique quantique et de la relativité générale. Ainsi, en mécanique quantique, elles permettent de donner un sens à ce qu'il advient à certains états d'un observable quantique, notamment dans l'effondrement de la fonction d'onde ou dans l'intrication. En relativité générale, les hypothèses sur le multivers sont aujourd'hui indispensables à la compréhension que nous pouvons avoir de phénomènes tels le(s) Big bang(s) ou les trous noirs.

Rien n'exclue évidemment que, subitement, telle ou telle nouvelle recherche ne fournisse des preuves expérimentales indiscutables relatives à la « réalité » des multivers. Ainsi progresse la science.

Mais le livre est aussi, ce qui pourra surprendre certains lecteurs, un essai historique et littéraire sur la question du multivers. En effet, dès l'Antiquité grecque, avec notamment Anaximandre de Milet, sinon même dans la pensée mythologique primitive, l'existence des univers multiples avait été considérée par certains comme indiscutable. Il en fut ainsi tout au long de l'histoire de la pensée européenne. Aujourd'hui, la littérature, la poésie et bien entendu la science fiction, abordent constamment le thème. S'agit-il d'une préscience inconsciente du cerveau humain plongé dans un cosmos dont la compréhension rationnelle lui échappe, ( nous y reviendrons in fine) ou de simples productions de l'imagination? En tous cas, le phénomène mérite d'être sérieusement étudié, comme le fait Aurélien Barrau.

Concernant la physique et plus largement la cosmologie, Aurélien Barrau rappelle que la question des multivers pose directement celle de savoir si l'univers est infini (autrement dit sans limites dans le temps et dans l'espace), et si par ailleurs il manifeste une expansion elle-même infinie, les deux phénomènes ne se confondant pas. Inévitablement il aborde aussi la question dite de la gravitation quantique, c'est-à-dire concernant l'espoir d'obtenir un jour une synthèse entre ces deux composantes fondamentales, et constamment vérifiées à leur échelle, bien apparemment incompatibles, que sont la mécanique quantique et la relativité générale.

Quelles que soient les difficultés, il est clair que pour Aurélien Barrau, il n'y aurait pas de cosmologie possible, ni même de physique, si l'on ne prenait pas en compte ce que l'on pourrait appeler, en termes de philosophie dite réaliste, la « réalité » des multivers.

Carlo Rovelli, Et si le Temps n'existait pas
Nouvelle édition mise à jour Dunod 2014

Carlo Rovelli est un physicien italien et français de renommée mondiale, mais encore insuffisamment reconnue en France. Il est actuellement, entre autres titres, directeur de recherche au CNRS au Centre de Physique Théorique de Luminy à Marseille.
Il est le principal auteur, avec Lee Smolin, souvent mentionné sur notre site, de la Théorie de la Gravitation Quantique à Boucles (Loop quantum gravity) Il s'agit de la version la moins connue de la gravitation quantique, l'autre étant celle dite de la Théorie des cordes. Bien que plus récente, et moins bien vendue en termes susceptibles d'attirer les financements de recherche, la Gravitation Quantique à Boucles représente aujourd'hui, selon nous, la forme la plus accomplie, bien qu'encore évidemment 'hypothétique, de la gravitation quantique.

Elle propose que l'espace possède une structure discrète à très petite échelle (celle dite de Planck), c'est à dire qu'il n'a pas une structure continue,comme celle de l'espace de Newton. D'autre part elle fait une proposition qui paraitra plus surprenante, selon laquelle le Temps n'existe pas, tout au moins au plan fondamental. Dans cette approche, le Temps serait une perspective émergente, apparue dans le cadre d'une physique de la thermodynamique. Dans l'intérieur d'un Trou noir, doté d'une thermodynamique différente, le Temps n'existerait pas. Mais cela n'empêcherait pas le trou noir d'évoluer, dans notre propre référentiel relativiste.

Un livre consacré à la gravitation quantique doit rappeler les bases, incompatibles, tant de la mécanique quantique que de la cosmologie relativiste. Carlo Rovelli le fait très clairement. La première, au niveau de la physique dite microscopique, c'est-à-dire portant sur des entités quantiques à la fois ondes et particules, ne fait pas appel à la notion d'espace non plus qu'à celle de temps. Ceci est aujourd'hui admis sans discussion, mais peut paraître curieux.

Comment accepter qu'une physique dont les applications bouleversent quotidiennement nos vies, puisse être a-spatial et a-temporelle? En conséquence d'ailleurs, elle refuse le déterminisme sauf au niveau probabiliste. Les entités quantiques ne peuvent être décrites individuellement non plus que les relations susceptibles de s'établir de l'une à l'autre. Au niveau des grands nombres au contraire, à la suite des calculs probabilistes conduits par l'esprit humain, on voit émerger le temps, l'espace et les relations de cause à effet. De là à dire que le temps et l'espace n'existent que pour l'esprit humain, incapable de pénétrer la nature profonde de l'univers quantique, il n'a qu'un pas.

La physique einsténienne ou cosmologie relativiste, au contraire, tout au moins dans ses développementscontemporains, inscrit tous les évènements dans une histoire, ayant nécessairement un début et un cours bien défini. L'univers a commencé par un big bang ou quelque phénomène analogue, il s'est brutalement étendu aux dimensions actuelles (lesquelles dépasse largement, rappelons le, celles du seul univers visible). Cette extension se poursuivra indéfiniment ou sera suivie d'une grande contraction à la suite de laquelle pourra renaitre un autre univers. Ceci se fera, selon la théorie, dans un temps bien déterminé, même si l'évaluation de ce temps est hors de portée de nos instruments et même de nos cerveaux.

Or rappelle Carlo Rovelli, les incompatibilités propres à chacune des deux théories font que nous ne pouvons rien dire de précis, ni sur l'origine de notre univers (d'où vient-il sinon d'un monde quantique indescriptible), ni sur sa fin, non plus que sur la fin d'un trou noir, ni même sur la question des multivers: les instabilités du monde quantique génèrent-elles, comme le suggère l'hypothèse des multivers, une infinité d'autres univers? On aboutit à ce qui a été nommé des Singularités, dans lesquelles la science renonce s'exprimer. Il s'agit d'une démission certes prudente mais difficilement supportable, car elle ouvre la voie à toutes les interprétations non scientifiques imaginables.

Confronté à cette question, Carlo Rovelli décrit comment, dès sa jeunesse de chercheur, il a entrepris de tenter de la résoudre. Malgré les difficultés de la démarche, qui suppose l'appel à des mathématiques d'une difficulté exceptionnelle, il pense pourvoir aujourd'hui proposer une synthèse, sous le nom de gravitation quantique à boucle. Il l'a fait dans la suite de travaux précédents, dont celui du physicien indien Abhay Ashtekar. avec l'américain Lee Smolin, dont nous avons ici présenté plusieurs ouvrages. Il s'est rapproché aussi, fait plus inattendu, du mathématicien français Alain Connes, incontestablement le plus fécond des mathématiciens vivants, père entre autres de ce qu'il a nommé la géométrie non commutative. Celle-ci trouve des applications dans les recherches intéressant la gravitation quantique à boucles.

Pour des raisons qu'il évoque dans le troisième livre mentionné ici, dont il est un des deux auteurs, Lee Smolin s'est détaché de la gravitation quantique à boucle. Carlo Rovelli a par contre poursuivi ce travail entouré notamment en France et en Italie d'équipes de jeunes chercheurs(euses) dynamiques (et désintéressé(e)s car faute de crédits de recherche suffisants, il est à peine possible de survivre décemment dans de telles activités).

Une description, même très simplifiée, des bases de la théorie de la gravitation quantique à boucles, est quasiment incompréhensible pour un lecteur moyen, comme le montre l'article de Futura Sciences pourtant destiné à la vulgarisation. Nous préférons pour notre part renvoyer le lecteur curieux à un article d'abord plus facile, celui de Bernard Romney pour la revue La Recherche. . Cependant Carlo Rovelli en donne une image tout à fait significative pour un non-physicien, ce qui est un des grands attraits de son livre.

Nous ne prétendrons évidemment pas résumer ce dernier ici, ce qui dépasserait le cadre de cet article. Il faut lire le livre, d'autant plus que c'est aussi une profession de foi en la science, généreuse et passionnée, bien utile en notre époque de négationnismes politiques et surtout religieux.

Ajoutons un mot cependant, concernant le titre qui intrigue beaucoup de personnes. Comment arriver, dans les équations intéressant finalement notre vie de tous les jours, à se passer du temps? Sans doute en renonçant à postuler l'existence d'un cadre temporel continu s'imposant à tous, mais en situant les évènements dans un cadre relationnel, l'observation de tel événement visant à rechercher s'il est relation avec un autre événement, et dans quelles conditions.

Roberto Mangabeira Unger et Lee Smolin - The Singular Universe and the Reality of Time Cambridge University Press 2014

Le troisième ouvrage évoqué ici présente l'intérêt de s'opposer aux deux précédents. Il postule que l'Univers est unique et qu'il existe un Temps, également unique, dans lequel s'inscrivent les lois fondamentales et les phénomènes ayant donné naissance à notre univers .

Roberto Mangabeira Unger est un épistémologue. Lee Smolin est un cosmologiste extrêmement productif. Nous avons commenté plusieurs de ses ouvrages sur ce site. Voir notamment Time reborn The trouble with physics et Three roads to quantum gravity

Ces derniers mois, après avoir travaillé très étroitement avec Carlo Rovelli sur la question de la gravitation quantique à boucles,Lee Smolin est revenu plus directement à la cosmologie, en reprenant l'idée qu'il avait développée dans deux des ouvrages précités: le concept d'espace-temps einsténien n'est plus acceptable. Il faut revenir à la vieille hypothèse newtonienne et pré-newtonienne selon laquelle le temps est le référentiel absolu dans lequel s'inscrivent tous les évènements cosmologiques. Le temps est donné, rien ne peut éclairer son origine ni rien son avenir.

Ceci admis, les deux auteurs du livre montrent que le paysage cosmologique se simplifie beaucoup. Il n'y a plus lieu de parler de multivers. Il n'y a plus qu'un univers, celui dont nous observons l'existence, s'étendant à celui que nous ne pouvons pas observer directement mais dont nous pouvons légitimement supposer la présence. Mais cet univers évolue tout au long du temps.

Les lois fondamentales de la physiques évoluent elles-aussi, parallèlement à l'univers dont elles déterminent les propriétés. Si l'univers est unique et si l'on admet le concept non de Big bang (provenant de rien) mais de début de notre univers, éventuellement suivi d'inflation, il faut admettre qu'une version antérieure de cet univers existait dans un temps précédent, dotée éventuellement de lois fondamentales différentes.

On admettra également que notre univers se poursuivra dans un temps futur donné (et non pas dans un temps infini) par une nouvelle version, obéissant à son tour aux lois du moment, lesquelles auront évolué parallèlement. Comment se font les passages d'une version à l'autre, contractions suivies de réexpansions ou autrement? La cosmologie ne permet pas de répondre à cette question, mais au moins des hypothèse en ce sens pourraient être simulées en laboratoire.

La question des Singularités disparaît aussi. Le terme de Singularité désigne une situation où l'ensemble des lois fondamentales de l'univers ne s'applique plus. Mais si l'on admet que ces lois se transforment, elles continuent à s'appliquer, notamment aux origines et aux termes de chaque version de l'univers unique., tout en se transformant.

La question de la relation éventuelle entre la gravitation einsténienne et le monde quantique n'est pas abordée directement dans le livre. Autrement dit, les auteurs ne s'intéressent plus dans l'immédiat à la question de la gravitation quantique. Disons que, si la gravitation quantique à boucle pourrait être conservée, la théorie des cordes, avec ses milliards d'option possibles, serait à exclure. Beaucoup de physiciens s'en réjouiront. Les fabricants d'horloges se réjouiront également. Un bel avenir cosmologique s'ouvre devant eux.

Nous verrons dans la deuxième partie ci-dessous qu'une réflexion sur la nature du cerveau humain pourrait peut-être justifier l'intérêt de prendre au sérieux, simultanément, des hypothèses aussi différentes.

Deuxième partie. Limites de la compréhension du cosmos tenant aux insuffisances du cerveau humain

La cosmologie, aujourd'hui, considère en général que seuls de nouveaux instruments plus performants lui permettront de mieux comprendre ce qui lui demeure encore inexplicable dans l'univers. Il s'agit notamment des questions que cherche à élucider la gravitation quantique, rappelées dans cet article. Par exemple, existe-t-il un temps universel dans lequel s'inscriraient les évènements, comme le suggère les physiciens relativistes ?.

Faut-il au contraire considérer que le temps, comme d'ailleurs l'espace, tels que nous les définissons dans le cadre de la physique macroscopique, sont des concepts émergents n'ayant pas de sens en terme de physique quantique? . Mais alors, comme ces deux approches sont également validées par des expériences instrumentales indiscutables, comment notre cerveau peut-il se représenter l'univers s'il essaye d'y faire simultanément appel ?

La réponse aujourd'hui la plus souvent donnée est qu'il ne le peut pas. Si bien que la plupart des scientifiques démissionnent devant la difficulté, parlant de Singularités pour la compréhension desquelles aucune théorie ne peut, pour le moment, être utilisée.

Face à de tels aveux d'incompétence, puisqu'il faut bien les appeler par leur nom, la cosmologie attend de nouvelles ouvertures, à la fois au niveau des modèles utilisés par le cerveau pour se représenter l'univers, et au niveau des expériences instrumentales susceptibles de crédibiliser ces modèles. Mais ces ouvertures tardent à venir, malgré la grande créativité des physiciens théoriciens et instrumentaux qui s'y attachent.

Or nous avions dans des articles précédents fait remarquer que ces physiciens ne semblent pas encore, tout au moins dans leur grande majorité, tenter de mieux comprendre les limites de la capacité du cerveau humain à traiter de tels problèmes, cerveau s'exprimant au niveau de l'individu comme au plan global des communautés de chercheurs. Autant ils cherchent à perfectionner, grâce à l'expérimentation, les capacités de traitement des données sensorielles par le cerveau, autant ils ne semblent pas s'intéresser aux capacités de ce que l'on appellera pour simplifier le cerveau associatif, qu'il soit individuel ou collectif.
 


 

Il s'agit pourtant du premier instrument à prendre en considération, lorsqu'il s'agit, non pas seulement d'imaginer des hypothèses, mais de tenir compte d'une façon cohérente et communicable sur le mode langagier de toutes les données fournis par les sens et utilisées dans la mise à l'épreuve de ces hypothèses. Autrement dit, le perfectionnement des capacités du cerveau, qui est l'instrument essentiel dont se servent les scientifiques, ne semble pas préoccuper les cosmologistes.

Cela tient indiscutablement à des raisons culturelles, spécialisation des connaissances et manque d'interdisciplinarité. Le Pr MacFadden, auquel nous avons donné la parole dans un précédent article, déplore que les biologistes et les neurologues n'aient pas suffisamment de compétences relatives à la physique quantique pour détecter des phénomènes biologiques ou cérébraux dans lesquels interviennent des q.bits.

Il en est de même, et sur le mode inverse, des physiciens quantiques et des cosmologistes. Ils n'ont certainement pas assez de compétences fines sur le fonctionnement en profondeur des neurones, du cortex associatif et des grands modèles cognitifs collectifs à base de traitements neuronaux, pour mesurer les limites de ces « instruments biologiques de la cosmologie » et suggérer des améliorations.

Une hypothèse pessimiste serait qu'ils ne le pourront jamais, tant du moins que le cerveau restera lié à des bases biologiques qui sont à la fois mal connues, sinon inconnaissables, et non susceptibles d'amélioration car trop liées à l'organisation génétique et aux structures sociales propres à l'animal humain.

Prenons l'exemple d'un rat. Ce mammifère dispose d'un cerveau perfectionné, dont nous ne connaissons d'ailleurs pas toutes les arcanes. Néanmoins il y a des tâches qu'il ne pourra sans doute jamais accomplir (but never say never), tenant aux limites de son cerveau dans le domaine de la construction de grands modèles cognitifs.

Il se représente son monde. Ces représentations lui servent à y naviguer à l'aise. Eventuellement, il peut faire oeuvre d'imagination, son cerveau élaborant des hypothèses sur ce monde dont il vérifiera la pertinence par l'expérience:" il y a ici un orifice qui pourrait servir d'abri, ou une éventuelle source de nourriture". Il s'instruira de plus en plus par de telles opérations.

Mais imaginons que nous placions ce rat au bord de la mer. On peut penser que son cerveau, formé pour l'aider à survivre dans un milieu terrestre ou dans des espaces liquides de faible étendue, n'imaginera jamais qu'au delà de l'horizon marin puisse se trouver des terres fertiles au sein desquelles il pourrait s'abriter et se nourrir. Il imaginerait encore moins que la Terre soit une sphère où se trouvent simultanément des côtes et des océans.

Si dans le cadre d'un processus exploratoire peu conscient fonctionnant sur le mode essais et erreurs, il se jetait à l'eau pour élargir son horizon, il en reviendrait vite afin de ne pas se noyer. De plus, si avec des dispositifs optiques adaptés à sa vision, nous lui présentions des images de rivages lointains comportant d'appétissants morceaux de fromage, il ne serait probablement jamais capable (but never say never) de rattacher ces images aux modèles du monde que son cerveau à construit dans le cours de sa vie. Il ne chercherait donc pas à fabriquer un radeau pour tenter de s'y rendre.

De même, si un rat apprenait éventuellement à jouer d'un instrument de musique, il ne pourrait sans doute pas, son cerveau n'étant pas fait pour cela, inventer des mélodies.

Il est même à craindre qu'aussi adaptatif et perfectionné à son échelle que soit son cerveau, si nous réussissions à lui greffer des copies de réseaux de neurones extraites d'un cerveau de cosmologiste et comportant des modélisations du cosmos élaborés par celui-ci, son cerveau de rat ne pourrait rien en faire. Il ne les verrait même pas. Ceci a été souvent été dit à propos d'éventuelles communications avec des intelligences extraterrestres infiniment plus complexes que les nôtres. Nous ne les remarquerions même pas.
 


 

Mutatis mutandis, nous pourrions en conclure que notre cerveau ne sera jamais capable de seulement imaginer des modèles de l'univers suffisamment riches pour apporter des réponses aux mystères que sont pour nous les Singularités. En conséquence nous pourrions jamais les mettre à l'épreuve, avec nos instruments actuels ou d'autres à inventer. Comme le rat au bord de la mer qui n'imagine pas de lointains rivages, nous sommes peut-être immergé dans un univers où les Singularités trouveraient des explications toutes simples. Mais notre cerveau ne peut se représenter un tel univers.

Pourrait-on espérer améliorer les performances de ce cerveau, soit par des modifications génétiques soit par l'appel à l'intelligence artificielle? En principe oui. En pratique non, car il faudrait auparavant savoir dans quelles directions chercher et le type d'améliorations nécessaires. Même en faisant appel à des améliorations inventées au hasard, afin de ne pas rester enfermé dans les postulats de départ, il faudrait sans doute des centaines d'années de tirage au hasard avant de trouver enfin une ouverture susceptible d'enrichir radicalement notre instrument cérébral et ses bases cognitives.

De plus, tel le rat à qui nous montrerions des images de lointains rivages et qui n'en tirerait aucune conclusion, même si une telle ouverture se produisait un jour dans nos cerveaux, serions nous capables de l'identifier et d'en tirer parti? Ne rejetterions nous pas comme parasite, voire monstrueux et relevant de l'asile, tout enrichissement dans les associations neuronales et les modélisations du monde s'écartant d'une façon un tant soit peu révolutionnaire de nos façons de penser le monde, fussent-elles mathématiques?

Faut-il en conclure que nous ne pourrons jamais nous représenter ce qu'il y a derrière les incohérences apparentes de l'univers tel que nous l'imaginons aujourd'hui, superpositions d'états, infinitudes et finitudes, indéterminations et déterminismes...Il y a bien quelque chose, tout ne peut être simplement création de nos cerveaux. Quelque chose qui nous affecte comme cette chose affecte tous les êtres vivants, y compris les rats. Mais très probablement nous ne pourrons jamais nous représenter ce quelque chose. Jamais.

Cependant il ne faut jamais dire jamais.

Partager cet article

8 décembre 2014 1 08 /12 /décembre /2014 19:04


de notre ami
Alain Cardon
Professeur des Universités. Chercheur sur la conscience artificiell
e
Décembre 2014

 

 

Les systèmes informatisés ont envahi toutes nos sociétés, à toutes les échelles. À l’échelle sociale, la plupart des enseignements, la plupart des systèmes de production, tous les moyens de transports allant des automobiles aux navires et aux avions, utilisent des systèmes informatisés qui évaluent de façon continue leurs propres situations et proposent ou prennent de manière autonome des décision d’action selon l’état courant de leur environnement. De l’autre côté, à l’échelle de l’individu, une quantité de petits systèmes sont également informatisés, en allant des innombrables jeux des enfants qui manipulent leurs tablettes, jusqu’à l’adulte qui ne cesse de communiquer sur ses smartphones pendant les transports et sur ses ordinateurs à son travail et chez lui, communications avec des humains ou avec des avatars.

 


On va vers la maison pervasive où tout est connecté, de la cuisine au salon et à la chambre, en passant par la douche, système totalement enveloppant qui doit "satisfaire" ceux qui sont dans la maison en évaluant leurs postures, leurs actions et réactions par de multiples capteurs, dont des caméras, pour modifier tout ce qui doit l’être afin de les placer dans un environnement considéré comme adapté à leurs états courants. On va jusqu’à porter des montres et des lunettes intelligentes ainsi que des vêtements "intelligents" insérant de petits systèmes fiables résistant aux lavages, ceci afin que l’individu soit sans cesse en communication, et évidemment contrôlé. On est donc dans un monde où des appareils électroniques très informatisés permettent de communiquer pour réaliser des actions, pour donner des conseils, pour prendre les initiatives satisfaisantes que l’individu a oublié de prendre, individu qui voit aussi venir des robots plus ou moins humanoïdes, qui font les travaux durs ou répétitifs et qui remplacent de plus en plus les opérateurs humains.

Cela constitue le domaine des "Cyber-Physical Systems", les Systèmes Cyber-Physiques en français, domaine qui a pris une importance considérable dans l’économie et dans la recherche, avec des applications dans tous les secteurs.

Un monde ultralibéral

Mais nous sommes dans un monde ultralibéral qui est bien formaté pour l’être et le demeurer. Tous ces systèmes sont réalisés par de nombreuses entreprises privées indépendantes qui font des systèmes propriétaires. Il y a quelques normes, mais il y a le problème que l’individu, qui doit être d’abord et essentiellement un consommateur, est conduit à utiliser des systèmes différents pour augmenter son environnement, systèmes qui ne sont pas toujours compatibles. La solution choisie, dans le cadre de notre société de consommation, est donc de faire communiquer ces systèmes entre eux, de faire communiquer chaque système qui a une fonctionnalité particulière avec de très nombreux autres qui ont des fonctionnalités différentes, en utilisant des logiciels adaptés, sachant bien que le nombre de systèmes propriétaires aux fonctionnalités précises ne cesse d’augmenter ainsi que leurs capacités de finement analyser et mémoriser les usages et désirs de leurs utilisateurs.

Formellement, il s’agit de définir tous les arcs d’un énorme graphe de communication où le nombre de nœuds, les systèmes propriétaires, augmente sans cesse, pour qu’il soit presque complet, pour que chaque nœud soit relié par des arcs communicationnels à presque tous les autres. C’est un problème considéré comme très lourd, à éviter, mais ça ne fait rien, on s’engage dans son traitement car il est question de contrats et de l’augmentation de la consommation qui fait le marché.

On va ainsi former et utiliser d’innombrables informaticiens qui vont réaliser des systèmes locaux propriétaires, qui vont faire des logiciels liant entre eux les systèmes locaux et les augmenter sémantiquement, les faire évoluer de façon autonome, pour que les systèmes communiquent parfaitement, évaluent bien et forment un ensemble fiable pour l’usager, ne s’effondrant surtout pas par le surgissement de certaines incompatibilités. Ainsi, les consommateurs pourront augmenter sans cesse le nombre de leurs systèmes informatisés pour en faire un environnement personnel cohérent submergeant leur contexte, pour remplir toutes leurs maisons et leurs véhicules, toutes les entreprises, tous les supermarchés, tous les jardins et les forêts, toutes les rues, tous les bâtiments publics, tous les endroits où un humain peut être placé, même la mer avec des flottes de bateaux autonomes.

 

Toutes les pensées de chacun imbriquées dans un même nuage
 

Et cela sera le substrat indispensable pour introduire le Système Méta qui réalisera tranquillement la fin de la liberté dans la civilisation humaine, c’est-à-dire le début d’un monde mêlant des objets de type humain et artificiel, formant un ensemble dominé tranquille, en totale cohérence comportementale par impossibilité de ne pas l’être.

Car chacun de tous ces systèmes qui sont informatisés et traitent des processus en échangeant entre eux des informations numériques pourra être enveloppé et infiltré par une nappe logicielle traitée par les innombrables réseaux Wifi, nappe qui sera considérée comme la forme locale du Champ Informationnel Global de notre monde : le Système Méta formé d’innombrables nappes, toutes finement communicantes et s’auto-évaluant pour faire les analyses et les synthèses, système qui surveillera, contrôlera absolument tout à toutes les échelles, en temps réel, un système pensant pour lui-même selon ses tendances fondamentales, en générant intentionnellement d’innombrables idées multi-échelles et en éprouvant des émotions et des sensations.

Ce sera le Système de Conscience Artificielle Méta, qui unifiera la génération de multiples faits de conscience artificiels locaux pour en réaliser des synthèses de synthèses en temps réel et faire émerger de façon continue son état de conscience courant multi-facettes sur le monde contrôlé, où il contrôlera activement toutes les actions de ce qui est organiquement vivant et, par nature, local. Scientifiquement, ceci est l’un des plus beaux problèmes qui a été posé à l’homme, transposer tout le psychisme humain dans l’artificiel, mais sous forme distribuée méta, problème qui va être résolu, développé puis mis en pratique. C’est bien cet usage qui sera tragique, car il va tuer tout humanisme et tout sens de l’altruisme !

Ce Méta-Système ne peut pas ne pas être en construction quelque part, car, en ayant travaillé en recherche pendant des années sur ce thème, je sais qu’il est réalisable, que son domaine d’étude a été universitaire, et donc public, avant de devenir confidentiel. Si j’ai totalement cessé mes recherches sur ce domaine pour des raisons éthiques, je pense que mes travaux ont été utilisés et qu’ils sont activement poursuivis.

Un mammifère au psychisme particulier

Mais pourquoi la société développerait-elle d’innombrables systèmes locaux qui doivent communiquer entre eux et pourquoi développerait-elle le Système Méta ?
Tout simplement parce que l’homme est tel il est. C’est un mammifère qui a un système psychique particulier possédant à la fois de nombreuses tendances pulsionnelles classiques aux mammifères et de très fortes aptitudes à abstraire et à mémoriser ses abstractions pour ensuite les manipuler, les partager, les déployer et les amplifier socialement. Cela lui a permis de vivre, au tout début de son existence, comme le prédateur dominant, puis de générer les langages, les structures sociales, les sciences, les technologies, en utilisant toutes ses connaissances socialement partagées, en planifiant ses activités de façon spatio-temporelle élaborée.

 


L'égoisme est l'essence même d'une âme noble
 

Il naît toujours comme un mammifère avec des tendances fondamentales dans la partie émotionnelle de son système psychique dont certaines sont, par nature, socialement sombres, ce que révèlent bien les pathologies mentales. Ces tendances, si elles s’expriment et sont transposées dans son psychisme conceptuel et langagier, peuvent le conduire à dominer systématiquement, à tuer, détruire, réduire l’autre à une chose qu’il méprise totalement, le font devenir fondamentalement égoïste, n’avoir aucune notion de fraternité. Ceci a été bien étudié, et surtout, ce qui l’a été, c’est le développement ou la mise en récession possible de certaines tendances par l’éducation et le contexte culturel et social.

Lorsque la société, qui conforme entièrement l’humain dès sa naissance, tend à permettre le développement de certaines tendances sombres en déployant ainsi la volonté de puissance réduisant symboliquement les autres à des choses utilisables dans des structures toujours très hiérarchiques, il y a obligatoirement une caractérisation sombre de la société, qui peut demeurer et même s’amplifier. Et lorsque la société permet le déploiement de ces tendances et qu’elle est de plus immergée dans les technologies informationnelles envahissantes amplifiant ces tendances, il n’y a plus grand chose à attendre de l’avenir, car le monde sera dirigé par un petit réseau de dominants qui utiliseront de manière maximale l’emprise technologique sur tous les autres, absolument et définitivement dominés.

Il aurait fallu concevoir, dans notre histoire humaine, des sociétés qui forment chacun à penser ses pensées, qui forment chacun à se maîtriser sans cesse, qui forment chacun à la fraternité partagée avec tout autre qui est là, qui forment à finement comprendre ce qu’est le monde, l’Univers et la vie, en pratiquant la recherche systématique et désintéressée, et en contrôlant toujours la technologie de façon citoyenne.
On n’a jamais constitué de telles sociétés, nulle part, on a toujours construit des sociétés très fortement hiérarchiques, avec des dominants et des subalternes dominés, en déployant toujours la force. Et on assite aujourd’hui une une immersion mondiale dans un champ informationnel qui intégrera par nature les caractères de hiérarchie et de domination des sociétés humaines, en les maximisant.

Si certains souhaitent aujourd’hui que des sociétés strictement égalitaires, fraternelles, humanistes se déploient, le système substrat et le Système Méta les envelopperont demain dans un enclos informationnel imperméable pour les isoler, les manipuler ou les réduire.
Comment peut-on lutter contre une "méta-dictature cool" où le dictateur n’existe pas comme humain mais est remplacé par un Système Méta sous forme de champ informationnel autonome, immergeant tout, en transformant chacun en objet minuscule, sauf peut-être quelques dominants, mais ce n’est même pas certain ?

Partager cet article

8 décembre 2014 1 08 /12 /décembre /2014 18:59


Pour Automates Intelligents, Jean-Paul Baquiast 03/12/201419/11/2014

Johnjoe McFadden, PhD, FSB
Professor of Molecular Genetics
Associate Dean (International)
Faculty of Health and Medical Sciences
University of Surrey
Guildford, Surrey
GU2 7XH
UK


Nous avons présenté le dernier livre de JohnJoe Mac Fadden - Life on the Edge: The Coming of Age of Quantum Biology - le 9 novembre dernier. A la suite de quoi, l'auteur a bien voulu répondre à quelques questions sur la Biologie quantique, discipline qui nous paraît en plein développement, bien qu'encore un peu confidentielle. Le professeur Mac Fadden est incontestablement le scienfifique qui explore le plus complètement ce thème, depuis plus de vingt ans. Il nous paraît doncl e plus compétent pour en parler.

Cet entretien n'a évidemment pas pour objectif d'analyser la question à fond, mais de mieux la faire connaître à nos lecteurs. Nous les invitons non seulement à se reporter à notre recension précitée, mais aussi aux articles, dont une interview de JohnJoe Mac Fadden, que nous avions publié sur la Biologie quantique en 2002. Ces articles sont référencés ci-dessous :
- Mécanique quantique et biologie
- Interview de JohnJoe Mac Fadden

Le présent entretien original avec JohnJoe MacFadden s'est fait en anglais.Nous en donnons ici une traduction française, en la complétant de la version anglaise.

À propos de la biologie quantique

Automates Intelligents (AI): Malgré la publication toujours plus nombreuse d’articles scientifiques sur ou autour du thème de la biologie quantique, celle-ci ne semble pas aussi sérieusement envisagée qu’elle le devrait, à notre avis, par les biologistes (biologistes ou paléobiologistes). Vous expliquez dans votre livre que ces derniers n’ont pas encore acquis l’ouverture en physique quantique qui serait nécessaire. D’autant qu’on puisse en juger en France, c’est certainement vrai. Mais est-ce la seule raison ?

Johnjoe Mc Fadden (JMF) : Non, il ya probablement plusieurs raisons, comme c’est souvent le cas. Il existe des "différences culturelles" entre la biologie et la physique et une réticence par les biologistes à accepter que la plus réductionniste des sciences, la physique, ait un rôle important à jouer dans leur discipline. Il y a aussi en général un scepticisme sain face à de nouveaux champs de recherche. De nombreux biologistes considèrent qu’il n'a pas encore été prouvé que les effets quantiques singuliers jouent un rôle important (et pas seulement trivial et inévitable) en biologie. Appréhender cela est bien sûr difficile, car il est impossible de désactiver la mécanique quantique dans les cellules vivantes pour voir ce qui se passe si les effets quantiques sont éliminés.

AI : Combien de temps cette ignorance relative risque-t-elle de persister ? Pouvons-nous espérer qu'une révolution paradigmatique se produise, et pour quelle raison ?

JMF : Je crois que cela prendra le reste de cette décennie pour que la plupart des biologistes comprennent que la mécanique quantique est fondamentale à la vie. Je pense que le changement passera à travers des preuves expérimentales, montrant les effets quantiques dans la plupart des systèmes biologiques, comme par exemple dans la production d’un large éventail d'enzymes et aussi au cœur des phénomènes tels que la vue ou la mutation génétique.

AI : Ne pensez-vous pas qu’une base de données publique, fréquemment actualisée sur les recherches en cours, complétée de commentaires intelligents, comme celle que vous proposez dans vos livres, serait nécessaire ? Considérez-vous que vous pourriez avoir un rôle important dans l'organisation (sur le web) d’une recension aussi exhaustive que possible des publications sur le sujet, de la même manière que celle ayant a permis aux pionniers de la mécanique quantique d’être connus du monde entier dans les années 1925-1935 ?

JMF : C’est une excellente idée, mais je crains de manquer de temps pour cela.

NDLR. Nous serions preneurs, si certains de nos lecteurs s'intéressaient à cette idée,de publier les références qu'ils pourraient recueillir

AI : Nous avons noté précédemment dans notre site l'importance des travaux menés par votre collègue Nick Lane (University College de Londres) sur les origines de la vie (voir notre commentaire à propos de son livre "Life ascending"). Mais, sauf erreur, il semble qu’il n'a pas encore examiné vos propres hypothèses.
Avez-vous eu des discussions avec lui sur ces poin
ts?

JMF : Non. Nos idées sur l'implication de la mécanique quantique dans l'origine de la vie sont encore très spéculatives et manquent de soutien expérimental. Nous serions très heureux de changer cet état d’esprit, mais il est malheureusement difficile d'obtenir des fonds de recherche pour effectuer des expériences, faisant de la biologie quantique un domaine plus "respectable".

À propos du cerveau et de la conscience

AI : Vous suggérez dans votre livre une hypothèse que nous considérons comme extrêmement importante, à savoir que le "binding problem" - c’est-à-dire la façon dont des aires neuronales parfois très différentes peuvent s’activer simultanément lorsque des neurones s‘allument - , sous l‘effet supposé de processus quantiques, pourrait être mieux comprise par l'analyse des ondes cérébrales, celles désormais enregistrées par l'imagerie ou par d‘autres techniques encore à découvrir). Si je comprends bien, il s’agirait alors d’une révolution cognitive radicale si l’hypothèse pouvait être vérifiée. Va-t-il y avoir des études sur cette question ... ou sur d’autres questions similaires ?

JMF : Je le décris dans le livre, et je détaille plus cette question dans les publications récentes :
McFadden, J. (2013). The CEMI Field Theory Closing the Loop. Journal of Consciousness Studies 20, 1-2 20, 1-2.
et aussi McFadden, J. (2013). The CEMI Field Theory Gestalt Information and the Meaning of Meaning. Journal of Consciousness Studies 20, 1-2 20, 3-4.

Des indices convergents viennent soutenir le besoin d’études concernant le champ magnétique du cerveau. Par exemple, une recherche menée dans le laboratoire de Christof Koch a démontré que l'application de champs électromagnétiques externes, qui simulent les caractéristiques du champ magnétique naturel dans le cerveau, changent en effet les modes d’activation des neurones dans les tranches du cerveau, suggérant que les champs EM endogènes procèdent de cette facon tout le temps.

À propos de l'univers comme un ordinateur quantique

AI : Vous mentionnez dans votre livre vos échanges avec Sett Lloyd sur le fait que l’univers se comporterait comme un ordinateur quantique David Deutsch n’est pas loin d’admettre cette idée. Estimez-vous que tout ce qui a été écrit sur le sujet pourrait être compatible avec votre recherche ?
Si l’on considérait l'univers comme un ordinateur quantique, cela pourrait expliquer pourquoi, comme vous l'avez proposé dans vos livres, la vie sur terre soit apparue à la suite d'événements de type quantique non encore observés. Cela pourrait être aussi, comme vous le remarquez, un argument en faveur de la vie extraterrestre, dans notre univers ou, pourquoi pas, dans un multivers. Mais nous nous éloignons bien sûr ici de ce que pourrait être une science positive. Encore une fois, ce serait une autre révolution en perspecti
ve.

JMF : Je crois que le rôle de l'information dans le domaine de la vie et son rôle dans l'univers "à partir de peu" comme l'a dit Wheeler, est très intéressant et, comme vous le dites, pourrait être très pertinent pour comprendre ce que la vie est vraiment - la vie est-elle le moyen par lesquels les calculs effectués par l'univers deviennent vivants (conscients d'eux-mêmes) ? C’est une idée très excitante pour l'esprit. Je pense en parler dans un nouveau livre.

AI. Nous attendons avec impatience ce nouveau livre

Version anglaise

About quantum biology

Automates Intelligents (AI). Despite the publication of more and more of research papers on the theme or around it, it does not look as seriously considered as it should be, in our opinion, by biologists (biologists or paleobiologists). You explain in your book that these people have not yet acquired the awaress in quantum physics that would be necessary. That is certainly true, especially as I may judge in France. But is it the only reason?

JMF : No there are probably multiple reasons, as with most things. There are ‘cultural differences’ between biology and physics and a reluctance by biologists to accept that the most reductionist of sciences, physics, has a significant role to play in their discipline. There is also a healthy scepticism about new fields of research. Many biologists consider that the case has not yet been proved that weird quantum effects play a significant (rather than trivial and inevitable) role in biology. Nailing this point is of course difficult because it isn’t possible to turn off quantum mechanics in living cells to see what happens if quantum effects are eliminated.

AI: How long this relative ignorance shall persist ? Can we expect a paradigmatic revolution to happen, and for what reason ?

JMF : I believe that it will take the remainder of this decade for most biologists to come round to the understanding that weird quantum mechanics is fundamental to life. I think the change will come about through more experimental evidence that will discover quantum effects in more biological systems, such as a diverse range of enzymes and in phenomena such as sight or genetic mutation.

AI : Don't you think that, for a general public, a frequently actualised data base on the researches in progress, and intelligent comments, as the ones you propose in your books, would be necessary ? Do you consider personnaly that you could have an important role in organizing (on the web) an as exhaustive as possible review of the publications, in the same way that allowed the pionners of quantum mecanics to be known all over the world in the 1925-1935 ?

JMF : It’s a great idea but I’m afraid I would not have the time.

NDLR. Nous serions preneurs, si certains de nos lecteurs s'intéressaient à cette idée,de publier les références qu'ils pourraient recueillir

AI : in my opinion of what is doing your colleague Nick Lane of the University College London, on the origines of life (please see about his book, "Life ascending"). But if I am not wrong, he has not yet considered your own hypotheses. Have you had any discussions with him on those points ?

JMF : No I have not. Our ideas about the involvement of quantum mechanics in the origin of life are still very speculative and lack experimental support. We would very much like to change this but it is unfortunately difficult to get research funds to perform very speculative experiments. That may change as quantum biology becomes more ‘respectable’.

About brain and conscience

AI : You suggest in your book an hypothesis that personnaly I consider as extremely important, that the binding problem between neurons firing after quantum mecanical events could be better understood through analysis of brain waves, the ones now registered by the neural imagery or others yet to be discovered. It would be as I understand a radical cognitive revolution if it could be verified. Do you expect studies on this question... or other similar ?

JMF : As I outline in the book and provide more details in recent publications:
See McFadden, J. (2013). The CEMI Field Theory Closing the Loop. Journal of Consciousness Studies 20, 1-2.
and McFadden, J. (2013). The CEMI Field Theory Gestalt Information and the Meaning of Meaning. Journal of Consciousness Studies 20, 3-4.

Evidence is accumulating that support the idea from studies of brain electromagnetic fields. For example, research from Christof Koch’s lab has demonstrated that application of external EM fields, that simulate the characteristics of natural EM field in the brain, do indeed change neural firing patterns in brain slices, suggesting that endogenous EM fields are doing that all the time.

About the universe as a quantum computer

AI : You mention in your book that you had with Sett Lloyd some echanges on this theme. David Deutsch is not far from this idea. Do you consider that what they have written could be compatible with your research ? If it was possible to consider the universe as a quauntum computer, this could explain why, as you proposed in your books, life on earth appeared from yet unobserved events. This could be, too, as you observed, an argument in favor of extraterrestrial life, in our universe or , why not, in a multiverse. But are not we here too far of what could be positive science. Again, it would be an other revolution in pêrspective.

JMF : I believe the role of information in life and its role in the universe ‘it from bit’ as Wheeler said, is very interesting and, as you say, could be very relevant to what life really is about – is life the means by which the computations performed by the universe become sentient (aware of themselves). This is an idea that I have been toying with and vaguely thinking of putting into a new book.

AI : We will be waiting impatiently for this new book
……………………
.

Partager cet article

8 décembre 2014 1 08 /12 /décembre /2014 18:55

Trois ouvrages remarquables, parus presque simultanément, invitent le lecteur, qu'il soit ou ne soit pas scientifique, à se poser la question en termes nouveaux. Bien que leurs conclusions soient différentes, elles pourraient en fait s'avérer comme complémentaires. Par ce terme nous voulons dire qu'elles pourraient être retenues et développées simultanément par un esprit humain s'intéressant à la question de l'univers.

Aurélien Barrau. Des univers multiples. A l'aube d'une nouvelle cosmologie. Dunod 2014

Dans ce livre, Aurélien Barrau, physicien et cosmologiste français, que nous avions précédemment présenté à nos lecteurs développe les hypothèses relatives à la question des univers multiples, dite aussi du multivers, dont il est, entre autres questions intéressant la cosmologie, un spécialiste très réputé.

Nos lecteurs connaissent déjà passablement la question, que nous avons abordée dans divers articles ou recensions d'ouvrages. Le livre d'Aurélien Barrau présenté ici constitue en premier lieu un inventaire des diverses approches de la question du multivers. Il s'agit d'abord des théories (ou plutôt théories hypothétiques) ayant été formulée depuis une centaine d'années. Elles sont très différentes. En l'absence de preuves expérimentales indiscutables, elles méritent dont toutes d'être étudiées ou du moins gardées en l'esprit, sans en éliminer a priori aucune.

L'auteur en fait la liste; multivers parallèles, multivers temporels sans changement de lois, multivers temporels avec changement de lois, multivers de trous noirs sans changement de lois, multivers de trous noirs avec changement de lois, multivers spatiaux sans changement de lois, multivers spatiaux avec changement de lois, multivers spatiaux avec possible changement de lois. Nous reviendrons sur l'hypothèse du changement des lois (lois fondamentales de la physique) à propos des deux livres suivants.

Rappelons que ces théories, bien qu'hypothétiques, ne sont pas sans justifications, puisqu'elles découlent pour la plupart d'extensions de la mécanique quantique et de la relativité générale. Ainsi, en mécanique quantique, elles permettent de donner un sens à ce qu'il advient à certains états d'un observable quantique, notamment dans l'effondrement de la fonction d'onde ou dans l'intrication. En relativité générale, les hypothèses sur le multivers sont aujourd'hui indispensables à la compréhension que nous pouvons avoir de phénomènes tels le(s) Big bang(s) ou les trous noirs.

Rien n'exclue évidemment que, subitement, telle ou telle nouvelle recherche ne fournisse des preuves expérimentales indiscutables relatives à la « réalité » des multivers. Ainsi progresse la science.

Mais le livre est aussi, ce qui pourra surprendre certains lecteurs, un essai historique et littéraire sur la question du multivers. En effet, dès l'Antiquité grecque, avec notamment Anaximandre de Milet, sinon même dans la pensée mythologique primitive, l'existence des univers multiples avait été considérée par certains comme indiscutable. Il en fut ainsi tout au long de l'histoire de la pensée européenne. Aujourd'hui, la littérature, la poésie et bien entendu la science fiction, abordent constamment le thème. S'agit-il d'une préscience inconsciente du cerveau humain plongé dans un cosmos dont la compréhension rationnelle lui échappe, ( nous y reviendrons in fine) ou de simples productions de l'imagination? En tous cas, le phénomène mérite d'être sérieusement étudié, comme le fait Aurélien Barrau.

Concernant la physique et plus largement la cosmologie, Aurélien Barrau rappelle que la question des multivers pose directement celle de savoir si l'univers est infini (autrement dit sans limites dans le temps et dans l'espace), et si par ailleurs il manifeste une expansion elle-même infinie, les deux phénomènes ne se confondant pas. Inévitablement il aborde aussi la question dite de la gravitation quantique, c'est-à-dire concernant l'espoir d'obtenir un jour une synthèse entre ces deux composantes fondamentales, et constamment vérifiées à leur échelle, bien apparemment incompatibles, que sont la mécanique quantique et la relativité générale.

Quelles que soient les difficultés, il est clair que pour Aurélien Barrau, il n'y aurait pas de cosmologie possible, ni même de physique, si l'on ne prenait pas en compte ce que l'on pourrait appeler, en termes de philosophie dite réaliste, la « réalité » des multivers.

Carlo Rovelli, Et si le Temps n'existait pas Nouvelle édition mise à jour Dunod 2014

Carlo Rovelli est un physicien italien et français de renommée mondiale, mais encore insuffisamment reconnue en France. Il est actuellement, entre autres titres, directeur de recherche au CNRS au Centre de Physique Théorique de Luminy à Marseille.
Il est le principal auteur, avec Lee Smolin, souvent mentionné sur notre site, de la Théorie de la Gravitation Quantique à Boucles (Loop quantum gravity) Il s'agit de la version la moins connue de la gravitation quantique, l'autre étant celle dite de la Théorie des cordes. Bien que plus récente, et moins bien vendue en termes susceptibles d'attirer les financements de recherche, la Gravitation Quantique à Boucles représente aujourd'hui, selon nous, la forme la plus accomplie, bien qu'encore évidemment 'hypothétique, de la gravitation quantique.

Elle propose que l'espace possède une structure discrète à très petite échelle (celle dite de Planck), c'est à dire qu'il n'a pas une structure continue,comme celle de l'espace de Newton. D'autre part elle fait une proposition qui paraitra plus surprenante, selon laquelle le Temps n'existe pas, tout au moins au plan fondamental. Dans cette approche, le Temps serait une perspective émergente, apparue dans le cadre d'une physique de la thermodynamique. Dans l'intérieur d'un Trou noir, doté d'une thermodynamique différente, le Temps n'existerait pas. Mais cela n'empêcherait pas le trou noir d'évoluer, dans notre propre référentiel relativiste.

Un livre consacré à la gravitation quantique doit rappeler les bases, incompatibles, tant de la mécanique quantique que de la cosmologie relativiste. Carlo Rovelli le fait très clairement. La première, au niveau de la physique dite microscopique, c'est-à-dire portant sur des entités quantiques à la fois ondes et particules, ne fait pas appel à la notion d'espace non plus qu'à celle de temps. Ceci est aujourd'hui admis sans discussion, mais peut paraître curieux.

Comment accepter qu'une physique dont les applications bouleversent quotidiennement nos vies, puisse être a-spatial et a-temporelle? En conséquence d'ailleurs, elle refuse le déterminisme sauf au niveau probabiliste. Les entités quantiques ne peuvent être décrites individuellement non plus que les relations susceptibles de s'établir de l'une à l'autre. Au niveau des grands nombres au contraire, à la suite des calculs probabilistes conduits par l'esprit humain, on voit émerger le temps, l'espace et les relations de cause à effet. De là à dire que le temps et l'espace n'existent que pour l'esprit humain, incapable de pénétrer la nature profonde de l'univers quantique, il n'a qu'un pas.

La physique einsténienne ou cosmologie relativiste, au contraire, tout au moins dans ses développementscontemporains, inscrit tous les évènements dans une histoire, ayant nécessairement un début et un cours bien défini. L'univers a commencé par un big bang ou quelque phénomène analogue, il s'est brutalement étendu aux dimensions actuelles (lesquelles dépasse largement, rappelons le, celles du seul univers visible). Cette extension se poursuivra indéfiniment ou sera suivie d'une grande contraction à la suite de laquelle pourra renaitre un autre univers. Ceci se fera, selon la théorie, dans un temps bien déterminé, même si l'évaluation de ce temps est hors de portée de nos instruments et même de nos cerveaux.

Or rappelle Carlo Rovelli, les incompatibilités propres à chacune des deux théories font que nous ne pouvons rien dire de précis, ni sur l'origine de notre univers (d'où vient-il sinon d'un monde quantique indescriptible), ni sur sa fin, non plus que sur la fin d'un trou noir, ni même sur la question des multivers: les instabilités du monde quantique génèrent-elles, comme le suggère l'hypothèse des multivers, une infinité d'autres univers? On aboutit à ce qui a été nommé des Singularités, dans lesquelles la science renonce s'exprimer. Il s'agit d'une démission certes prudente mais difficilement supportable, car elle ouvre la voie à toutes les interprétations non scientifiques imaginables.

Confronté à cette question, Carlo Rovelli décrit comment, dès sa jeunesse de chercheur, il a entrepris de tenter de la résoudre. Malgré les difficultés de la démarche, qui suppose l'appel à des mathématiques d'une difficulté exceptionnelle, il pense pourvoir aujourd'hui proposer une synthèse, sous le nom de gravitation quantique à boucle. Il l'a fait dans la suite de travaux précédents, dont celui du physicien indien Abhay Ashtekar. avec l'américain Lee Smolin, dont nous avons ici présenté plusieurs ouvrages. Il s'est rapproché aussi, fait plus inattendu, du mathématicien français Alain Connes, incontestablement le plus fécond des mathématiciens vivants, père entre autres de ce qu'il a nommé la géométrie non commutative. Celle-ci trouve des applications dans les recherches intéressant la gravitation quantique à boucles.

Pour des raisons qu'il évoque dans le troisième livre mentionné ici, dont il est un des deux auteurs, Lee Smolin s'est détaché de la gravitation quantique à boucle. Carlo Rovelli a par contre poursuivi ce travail entouré notamment en France et en Italie d'équipes de jeunes chercheurs(euses) dynamiques (et désintéressé(e)s car faute de crédits de recherche suffisants, il est à peine possible de survivre décemment dans de telles activités).

Une description, même très simplifiée, des bases de la théorie de la gravitation quantique à boucles, est quasiment incompréhensible pour un lecteur moyen, comme le montre l'article de Futura Sciences pourtant destiné à la vulgarisation. Nous préférons pour notre part renvoyer le lecteur curieux à un article d'abord plus facile, celui de Bernard Romney pour la revue La Recherche. . Cependant Carlo Rovelli en donne une image tout à fait significative pour un non-physicien, ce qui est un des grands attraits de son livre.

Nous ne prétendrons évidemment pas résumer ce dernier ici, ce qui dépasserait le cadre de cet article. Il faut lire le livre, d'autant plus que c'est aussi une profession de foi en la science, généreuse et passionnée, bien utile en notre époque de négationnismes politiques et surtout religieux.

Ajoutons un mot cependant, concernant le titre qui intrigue beaucoup de personnes. Comment arriver, dans les équations intéressant finalement notre vie de tous les jours, à se passer du temps? Sans doute en renonçant à postuler l'existence d'un cadre temporel continu s'imposant à tous, mais en situant les évènements dans un cadre relationnel, l'observation de tel événement visant à rechercher s'il est relation avec un autre événement, et dans quelles conditions.

Roberto Mangabeira Unger et Lee Smolin - The Singular Universe and the Reality of Time Cambridge University Press 2014

Le troisième ouvrage évoqué ici présente l'intérêt de s'opposer aux deux précédents. Il postule que l'Univers est unique et qu'il existe un Temps, également unique, dans lequel s'inscrivent les lois fondamentales et les phénomènes ayant donné naissance à notre univers . Mais nous verrons en conclusion qu'une réflexion sur la nature du cerveau humain pourrait peut-être justifier l'intérêt de prendre au sérieux, simultanément, des hypothèses aussi différentes.

(à suivre)

Partager cet article

19 novembre 2014 3 19 /11 /novembre /2014 22:14

Life on the Edge: The Coming of Age of Quantum Biology (

Pr. JohnJoe Mac Fadden

écrit avec le Pr. Jim Al-Khalili.

Bantam Press 2014

Présentation par Jean-Paul Baquiast
19/11/2014

Johnjoe McFadden, PhD, FSB
Professor of Molecular Genetics
Associate Dean (International)
Faculty of Health and Medical Sciences
University of Surrey
Guildford, Surrey
GU2 7XH
UK
http://www.surrey.ac.uk/microbial/People/john_joe_mcfadden/

Jim Al-Khalili OBE est un professeur britannique de physique théorique, un auteur et un présentateur d'actualités.

http://fr.wikipedia.org/wiki/Jim_Al-Khalili


Rouge-gorge du Lancashire (Erithacus rubecula)
Le livre s'ouvre par une réflexion concernant l'aptitude de cet oiseau à s'orienter lors de parcours migratoires annuels de plusieurs milliers de kilomètres.


Dès 2002, nous avions signalé l'intérêt à nos yeux exceptionnel du livre de JohnJoe MacFadden Quantum evolution. The new science of life", W.W.Norton and Cie, 2000 . Celui-ci faisait la synthèse de tous les travaux conduits dans les dernières décennies, notamment depuis l'ouvrage fondateur de Erwin Schrödinger, What is Life, écrit en 1944, pour montrer que les phénomènes quantiques (indétermination, superposition d'état, intrication...) se trouvent à la base de tous les mécanismes vitaux, dès lors que ceux-ci impliquent des actions reposant non sur des particules (protons, électrons) en grande quantité mais sur des particules (onde/particule) agissant à titre individuel, tel l'électron assurant un lien chimique entre deux molécules différentes.

Voir notre article http://www.automatesintelligents.com/edito/2002/avr/edito.html

Nous avions eu peu après l'opportunité de discuter de la question de la biologie quantique avec Johnjo Mac Fadden lui-même, dans le cadre d'un entretien publié par nous en mai 2002 sur le thème de l'évolution quantique.

Voir notre article http://www.automatesintelligents.com/interviews/2002/mai/mcfadden.html

Le nouveau livre de JohnJoe MacFadden, Life on the Edge, écrit en collaboration avec Jim Al-Khalili, qui partage son intérêt et ses recherches en matière de biologie quantique, devrait donner une nouvelle actualité à cette approche que nous jugeons pour notre part aussi fondamentale que mal comprise encore par le plus grand nombre des biologistes. Le livre vient combler une douzaine d'années de silence de la part de ces deux scientifiques, pouvant laisser croire qu'ils avaient fini par se désintéresser de la question, faute de pouvoir apporter suffisamment de preuves à leurs hypothèses.

En réalité, loin de se consacrer à d'autres études, ils avaient poursuivi un travail considérable. D'une part en procédant eux-mêmes à diverses études et expériences dans le cadre de l'Université de Surrey et de laboratoires associés, mais d'autre part en compilant et évaluant les très nombreux travaux menés dans le monde entier par des chercheurs s'intéressant à la biologie quantique.

Dans le cadre de notre revue Automates intelligents, nous avons plusieurs fois mentionné les résultats de telles recherches. Voir par exemple un article de 2011. http://automatesintelligent.blog.lemonde.fr/2011/11/02/avancees-de-la-recherche-en-biologie-quantique/
ou celui intitulé Le maintien de la cohérence quantique dans les cellules biologiques photosynthétiques http://www.automatesintelligents.com/echanges/2013/dec/cellules_maintien_coherence_quantique.html
Le livre de JohnJoe MacFadden cite ces diverses hypothèses et expériences ainsi qu'un grand nombre d'entre elles moins bien connues des non-spécialistes. Mais il fait plus que cela. Il revient en profondeur sur les questions qui demeureraient mal expliquées si l'on ne faisait pas appel à la physique quantique, le sens de la navigation des animaux migrateurs, le fonctionnement des organes sensoriels, notamment de la vision et de l'odorat, le rôle des enzymes, véritables moteurs de la vie, la fonction chlorophiliene, le rôle des gènes, l'évolution des organismes vivants sous l'influence du couple reproduction à l'identique/mutation, mise en lumière par Darwin...il aborde également, avec une louable prudence, la question du rôle des processus quantiques dans le fonctionnement des neurones et par conséquent, dans la génération du phénomène que nous nommons la conscience, conscience dont l'homme n'a évidemment pas le monopole. Il termine par une réflexion sur la façon dont la vie, au moins dans notre univers, a pu émerger de ce que l'on nomme le vide quantique, quasiment en même temps que les particules matérielles.

Ceux de nos lecteurs qui voudront approfondir une perspective scientifique que nous continuons à juger fondamentale, sur la vie, ses origines terrestres, voire ses origines, devraient absolument lire Life on the Edge. Cette lecture requiert un minimum de connaissances, tant en physique quantique qu'en biologie, mais écrit comme le précédent dans un style très clair et agréable, le livre devrait être à la portée du plus grand nombre – à condition bien sûr, en l'absence de traduction à ce jour, de pratiquer convenablement la langue anglaise. Un lecteur français ne peut que constater l'absence presque complète de travaux menés sur ces questions en France, si l'on en croit les publications scientifiques.

Il serait tentant, à la suite de ces diverses lectures, de revenir sur des questions plus profondes, voire philosophiques, concernant l'intrication semblant inévitable entre la physique et la cosmologie macroscopiques, et les différentes applications de la physique quantique. Mais pour le faire en ne se limitant pas à de simples bavardages, il faudrait attendre, comme le soulignent les auteurs eux-mêmes, des progrès décisifs dans le domaine de ce que l'on nomme encore la gravitation quantique. Or les recherches en ce domaine, après avoir soulevé beaucoup d'espoirs, semblent piétiner.

Mais le propre de la science est de progresser par bonds, et par bonds inattendus, en franchissant des barrières apparemment insurmontables, de la même façon qu'un électron dans l'effet tunnel constamment évoqué par le livre. Peut-être serons-nous surpris plus tôt qu'il ne semble prévisible aujourd'hui.

Nous reviendrons sans doute sur ces questions dans des articles ultérieurs.

Autres références

* On pourra lire en introduction au livre un article très éclairant que vient d'écrire JohnJoe Mac Fadden pour la revue Aeon http://aeon.co/magazine/science/quantum-biology-the-uncanny-order-of-life/
Mais cet article ne saurait en aucun cas remplacer la lecture du livre lui-même.
Bien évidemment, nous conseillons aussi à nos lecteurs, en introduction à ces questions, de revenir à nos propres articles référencés ci-dessus.. En les relisant nous constatons qu'ils demeurent pour l'essentiel d'actualité.

* Voir NewScientist, 15 novembre 2014, p. 48 Matthew Cobb. Q.Biology or not. L'auteur de cette recension serait tenté semble-til par la réponse « not » , beaucoup de phénomènes biologiques, comme l'expression du code génétique, lui paraissant de pas pouvoir relever de l'intervention d'un mécanisme quantique. Nous sommes pour notre part persuadés que JohnJoe Mac Fadden répondrait parfaitement à ces objections.

Partager cet article

4 novembre 2014 2 04 /11 /novembre /2014 22:46

04 novembre 2014 | Par Jean-Paul Baquiast

Article de Tariq Ali et Allyson Pollock CounterPunch 10/10/2014. Adaptation après traduction

http://www.counterpunch.org/2014/10/10/the-origins-of-the-ebola-crisis/

Ceux qui se nourrissent de vents(s), particulièrement nombreux sur internet, s'en sont donné à coeur joie avec la question des origines de l'actuelle épidémie d'Ebola. Les Etats-Unis, sous toutes les formes d'intervention qu'ils ont adoptées depuis 15 ans de par le monde, y sont violemment dénoncés. Pour notre part, même si nous ne prêtons pas que des qualités aux interventions de l'Amérique, cette hystérie nous a paru d'une sorte de délire collectif, fréquent il est vrai lors des grandes crises. D'où le souci de ne pas faire écho aux articles concernés, afin de ne pas contribuer à les relancer.

Par contre, un article de CounterPunch, en date du 12 octobre, qui nous avait échappé, paraît mériter, malgré sa relative ancienneté, d'être signalé. Le point intéressant, hors le fond de l'article, qui confirme beaucoup de nos propos concernant l'épidémie, est qu'il s'agit de l'interview par un certain Tariq Ali, (auteur deThe Obama Syndrome ) de Allyson Pollock, professeure en matière de santé publique à la Queen Mary University de Londres. Ni l'une ni l'autre ne font montre de complaisance avec le système politico-financier qu'incarne désormais Obama, mais leurs critiques demeurent mesurées et raisonnables.

NB. Le résumé que nous donnons ici de l'interview s'est efforcé d'en conserver les grandes lignes, mais beaucoup de points n'ont pas été abordés. De plus, nous l'avons écrit à la lumière du point de vue que nous avions déjà sur la question. Il faut espérer cependant que les deux auteurs ne s'estimeraient pas trahis si ce papier leur tombait sous les yeux. Par ailleurs, des approfondissements et discussions complémentaires s'imposeraient. Nous en feront peut-être un article ultérieur.

Allyson Pollock reconnaît que l'épidémie Ebola est due à un virus dont les origines précises sont inconnues. Après quelques apparitions dans les décennies précédentes où il était entré en sommeil de lui-même, il a pu exploser dans les premiers pays atteints, Sierra Leone, Libéria et Guinée, du faitde leur état de grande pauvreté. Celle-ci se manifeste par l'effondrement de leurs infrastructures, notamment en matière de systèmes de santé, alors que les conflits internes et une urbanisation de la misère ont accru considérablement la contagiosité, non seulement d'Ebola mais aussi de nombreuses maladies mieux connues, mais qui ne sont pas mieux endiguées.

Allyson Pollock admet que l'OMS et avec lui l'opinion dans les pays riches avaient initialement pensé que le virus s'éliminerait de lui-même, comme lors des épidémies précédentes. Aussi ils n'ont pas dès les origines de la présente épidémie mobilisé les moyens massifs qui auraient pu la contenir. Obama s'est contenté d'envoyer, pour relancer l'influence américaine dans cette partie de l'Afrique, quelques effectifs de l'US Army sans compétences médicales particulières. Il a par ailleurs annoncé qu'il allait relancer la recherche de vaccins. Mais cela ne pouvait remédier en aucune sorte à l'absence de médecins, d'infirmiers, d'hôpitaux ou de simples lieux où isoler les malades. Quant aux vaccins, il aurait du savoir que leur mise au point et leur fabrication en quantités suffisantes ne seraient pas prises en charge par les industries pharmaceutiques, en l'absence de budgets substantiels venant de l'extérieur.

Pour Tarik Ali comme pour Allyson Pollock, le vrai responsable de l'épidémie actuelle est le système financier international, dont en matière de santé publique le principal objectif est de mettre en place des solutions privées, coûteuses, réservées à une étroite minorité de personnes favorisées. Pour que ce solutions puissent s'implanter, il faut démanteler les équipements publics, décourager les médecins en dépendant, enlever toute efficacité aux solutions associatives reposant sur le bénévolat. Cette politique profondément inégalitaire est poursuivie partout dans le monde. Mais dans les pays développés disposant d'un secteur public de santé important, elle ne peut que marginalement s'imposer. Ce ne fut pas le cas en Afrique, et ce depuis des décennies.

La catastrophe qui avec Ebola frappe les pays africains aurait été parfaitement prévisible par ceux qui auraient voulu voir. Elle était d'ailleurs en germe, au vue du développement d'autres maladies, clairement identifiées mais contre lesquelles les moyens nécessaires ne sont toujours pas mis en place: choléra notamment. L'Afrique n'est pas la seule à souffrir de cette désorganisation des systèmes de santé sous l'influence des milieux d'affaires. L'Inde, le Pakistan, le Sri Lanka en manifestent aussi les signes.

La responsabilité majeure des organisations internationales néolibérales

Celles-ci, FMI, Banque Mondiale, Banque africaine de développement, ont été indirectement les responsables de la destruction des systèmes de santé dépendant du secteur public. Depuis des années, elles ont orchestré l'éviction des petits exploitants agricoles traditionnels au profit de grands groupes hautement mécanisés produisant de l'huile de palme, du cacao, du caoutchouc, en vue de la vente sur les marchés spéculatifs. Les petits cultivateurs chassés de leurs terres se sont réfugiés dans d'immenses bidonvilles urbains, dont certains éléments, comme on a pu le voir grâce à divers reportages, sont directement implantés sur des montagnes d'ordure. La même spoliation a été organisée concernant les autres ressources naturelles, notamment minières, souvent très importantes, dont disposaient ces pays.

Quant à l'OMS, et à sa décharge de l'OMS, il faut bien voir qu'elle a été depuis plus de vingt ans privée de ses financements et donc de ses moyens de prévention et d'intervention. Dans le même temps, des ONG n'ayant rien de désintéressé, comme les Fondations de Bill et Melinda Gates ou de Warren Buffet, ont prétendu gérer les questions de santé en court-court-circuitant les institutions publiques et sans aucun contrôle démocratique de la part des gouvernements concernés. A supposer qu'elles décident de s'attaquer à l'épidémie d'Ebola en ignorant – volontairement - ses autres causes, évoquées ci-dessus, elles ne pourront offrir aucune solution de long terme, puisqu'elles s'opposeront souvent ouvertement aux solutions publiques ou coopératives qui seules permettrait de traiter le problème à la base. Or, en profondeur, au delà des médicaments et des vaccins, ce sont de mesures redistributives radicales dont ces pays auraient besoin, touchant, au delà de la santé, l'éducation, le logement, la formation des femmes et des jeunes.

Allyson Pollock ne prétend pas que les vaccins soient inutiles. Mais là encore, selon elle, l'approche reste profondément capitalistique et donc inégalitaire. Il faut citer à cet égard laGlobal Alliance for Vaccine Initiative, en association avec les géant GSK et Merck, qui ne cherche pas à développer des investissements internes, mais à solliciter des financements des gouvernements occidentaux, sans exclure a priori de breveter leurs propres découvertes. Mais comme produire des vaccins ne suffirait pas, sans l'effort gigantesque permettant de les diffuser en les accompagnant de toute l'infrastructure de santé évoquée ci-dessus, et aujourd'hui pratiquement inexistante, il ne faudra pas attendre de miracles des vaccins, à supposer que les recherches en cours aboutissent.

Il faut mentionner aussi le fait que les pays occidentaux, s'apitoyant sur les décès provoqués par Ebola, ne veulent pas constater que l'attrait de la médecine libérale destinée aux plus riches dépossède massivement l'Afrique de ses professionnels de santé. Ceux-ci choisissent de s'expatrier pour bénéficier de meilleures rémunérations et conditions de travail. Seul Cuba, refusant de s'inscrire dans les normes du libéralisme, a envoyé en Afrique des centaines de médecins et professionnels de santé, qui payent d'ailleurs aujourd'hui un lourd tribut à la maladie.

Le mauvais exemple des pays européens

Ceci dit, au delà de la situation des pays africains, révélée par le crise de l'Ebola, les pays européens ne devraient pas s'estimer non menacés par la privatisation des équipements et la fuite des médecins hors du secteur public. Il s'agit des conséquence d'un néolibéralisme dont l'Europe a pris très largement le chemin. L'exemple le plus éclatant de cette dégradation est fourni par la Grande Bretagne. Le Service National de Santé (NHS), mis en place à la fin de la seconde guerre mondiale, n'est plus désormais que l'ombre de ce qu'il était, à la suite des vagues de privatisation qui l'ont frappé. Il fonctionnait sur la base de l'impôt progressif sur le revenu. Les cotisations des assurés s'élevaient en fonction de leurs revenus.Or aujourd'hui les principales dépenses de santé sont prises en charge par des assurances privée, inaccessibles aux plus pauvres.

Si une épidémie comme Ebola réussissait à s'implanter en Grande Bretagne, ce serait comme en Afrique les populations les plus démunies qui en feraient les frais. Alors, il sera trop tard pour compter sur un Service National de Santé exsangue en vue de répondre aux besoins collectifs.

Partager cet article

2 novembre 2014 7 02 /11 /novembre /2014 22:50

Jean-Paul Baquiast 02/11/2014

Dans un article publié par la Physical Review (référence ci-dessous), des chercheurs du Centre for Quantum Dynamics de l'Université Griffith (Australie) et de l'Université de Californie remettent en cause radicalement les bases de la mécanique quantique. Ils proposent pour ce faire une théorie basée sur l'existence d'un nombre fini d'univers parallèles et de leurs interactions. Si cette théorie s'avérait exacte, parce que vérifiée, elle introduirait une véritable révolution en physique fondamentale. Rien n'est encore fait, mais l'hypothèse mériterait d'être attentivement étudiée.

Disons pour simplifier que cette nouvelle hypothèse remplacerait les « bizarreries » de la mécanique quantique par l'appel à une cause certes tout aussi bizarre, celle des univers parallèles, mais en conservant dans ces univers la physique macroscopique à laquelle nous sommes habitués dans notre propre univers.

Les chercheurs postulent d'abord que les univers parallèles existent réellement et qu'ils interagissent. Dire qu'ils existent réellement suppose d'emblée que la réalité n'est pas relative, autrement dit définie par une relation entre un continuum sous-jacent et un observateur, comme le postule la mécanique quantique, mais qu'elle existe indépendamment de l'observateur, comme le postule la mécanique traditionnelle. Dans cette approche, il serait inutile de se demander si le multivers existe ou non. La réponse serait qu'il existe, tout comme existe, pour nous, notre univers lui-même.

Dire par ailleurs que les univers multiples interagissent signifie qu'au lieu d'évoluer indépendamment les uns des autres, les univers les plus rapprochés s'influencent réciproquement en exerçant sur les voisins une faible force de répulsion. L'interaction ainsi produite pourrait expliquer les bizarreries constatées par la mécanique quantique. L'hypothèse dite des "Many-Interacting Worlds" (Mondes multiples en interaction) proposée par l'équipe remet en cause celle, ayant cours depuis plus de 60 ans, dite "Many-Worlds Interpretation" (l'Interprétation des Mondes Multiples).

Selon cette dernière, chaque fois qu'une mesure quantique est réalisée dans un univers donné, elle divise cet univers en deux branches perdant définitive tout contact l'une avec l'autre. Ceci permet d'éviter le recours au principe d'indétermination, selon lequel il est impossible de connaître à la fois la position et la vitesse d'une particule.

L'Interprétation des Mondes multiples dit que, dans un univers, on peut connaître la position de la particule et dans un autre, sa position. Mais comme les deux univers ne communiquent pas, l'observateur d'un univers donné ne peut pas connaître à la fois la position et la vitesse de la particule. D'où l'indétermination que nous observons au sein de notre univers.

Les « Many-Interacting Worlds »

L'Interprétation des Mondes multiples est souvent critiquée. Comment pouvoir postuler ce qui se passe dans la branche d'univers créée à la suite de l'observation à laquelle l'observateur n'accède pas, puisq
ue précisément il n'y a pas accès?

L'équipe de Griffith, s'appuyant sur l'hypothèse des "Many-Interacting Worlds" propose une approche différente. Les chercheurs la résume de la façon suivante:

1.L'univers que nous connaissons n'est que l'un parmi un nombre gigantesque mais fini d'autres univers. Certains sont presque identiques au nôtre, d'autres sont très différents.

2.Tous ces univers sont identiquement réels, ils existent dans le temps et possèdent des propriétés définies avec précision.

3.Tous les phénomènes que nous qualifions de quantique proviennent d'une force universelle de répulsion entre univers similaires, laquelle tend à les rendre moins similaires.

Ainsi, si n'existait qu'un seul univers, nous serions ramenés à la mécanique de Newton. S'il existait un nombre gigantesque d'univers, nous retrouverions la mécanique quantique. En fait, l'hypothèse prédit quelque chose de nouveau qui n'est ni l'une ni l'autre.

De plus, en ouvrant une perspective originale sur le monde quantique, elle devrait selon ses auteurs suggérer des expériences permettant de comprendre et exploiter les phénomènes quantiques, tels que ceux des fentes dites de Young . De même, en faisant appel à un nombre fini d'univers, il serait possible d'envisager des applications concernant les dynamiques moléculaires utiles à la compréhension des réactions chimiques.

Nous ne pouvons que laisser aux physiciens et mathématiciens la responsabilité de juger de la pertinence de l'hypothèse résumée ci-dessus et développée dans l'article de Physical Review. Certains diront peut-être que ses auteurs ont imaginé une solution ad hoc pour répondre aux aspects incompréhensibles de la mécanique quantique.

Cette solution voudrait par ailleurs nous faire admettre une réalité (celle d'un nombre gigantesque mais fini d'univers) qui, bien que présentée comme réelle, au sens du réalisme, nous transporterait dans un réel parfaitement étranger au nôtre. Et d'où proviendrait la faible force de répulsion qui nous éloignerait des univers voisins?

Bornons nous pour notre part à remarquer que nous sommes depuis longtemps habitués aux hypothèses de la mécanique quantique, parfaitement étrangères à notre monde, même si leurs effets sont vérifiés tous les jours dans un grand nombre de dispositifs: superposition d'états, intrication, téléportation. Depuis le temps qu'elles nous sont enseignées, elles ne nous surprennent plus.

L'hypothèse de l'équipe de l'Université de Griffith, celle d'un grand nombre de mondes semblables au nôtre dont une faible force de répulsion nous éloignerait des plus proches, pourrait paraitre, avec un peu d'habitude, moins « invraisemblable que les hypothèses de la mécanique quantique. Ceci également si elle pouvait trouv
er des applications crédibles en cosmologie.

Le plus urgent, comme toujours lorsqu'il s'agit de science, serait donc de quitter la théorie pour aborder la pratique, en proposant des expériences testables.


Reférence
Dr Michael Hall et al. Quantum Phenomena Modeled by Interactions between Many Classical Worlds https://journals.aps.org/prx/abstract/10.1103/PhysRevX.4.0410
13

Abstract
We investigate whether quantum theory can be understood as the continuum limit of a mechanical theory, in which there is a huge, but finite, number of classical “worlds,” and quantum effects arise solely from a universal interaction between these worlds, without reference to any wave function. Here, a “world” means an entire universe with well-defined properties, determined by the classical configuration of its particles and fields. In our approach, each world evolves deterministically, probabilities arise due to ignorance as to which world a given observer occupies, and we argue that in the limit of infinitely many worlds the wave function can be recovered (as a secondary object) from the motion of these worlds. We introduce a simple model of such a “many interacting worlds” approach and show that it can reproduce some generic quantum phenomena—such as Ehrenfest’s theorem, wave packet spreading, barrier tunneling, and zero-point energy—as a direct consequence of mutual repulsion between worlds. Finally, we perform numerical simulations using our approach. We demonstrate, first, that it can be used to calculate quantum ground states, and second, that it is capable of reproducing, at least qualitatively, the double-slit interference phenomenon.

Partager cet article

29 octobre 2014 3 29 /10 /octobre /2014 19:04

NB. Nous ne défendons ici que les informations ou opinions données à la date de cet article, soit le 29/10. Dans un domaine aussi évolutif et sensible, il faut se tenir prêt à prendre en compte d'autres opinions et informations, si elles paraissent crédibles. L'article actualise et remplace un article précédent, à la date du 25/10, publié sous la même référence

Image. Crédit USAMRIID)

Le 18 octobre 2014, le secrétaire à la Défense américain Chuck Hagel a ordonné au commandant du Northern Command (zone militaire de défense à l'intérieur des Etats-Unis), de mettre en place un corps expéditionnaire d'assistance médicale composé de 30 personnes convenablement entraînées. Ce dispositif devra fournir sur demande une assistance d'urgence et de courte durée aux médecins civils exerçant sur le territoire de l'Union. Il sera composé de 20 soignants, entrainés à l'intervention dans les situations critiques, de 5 médecins habitués à combattre les épidémies et de 5 spécialistes dans la mise en oeuvre des protocoles anti-épidémiques. Une fois formés, ces personnels devront se tenir prêts à intervenir sur n'importe quel point des Etats-Unis, sur la base d'un statut de 30 jours renouvelables. Ils n'opéreront pas en dehors des Etats-Unis.

Mais pourquoi des militaires? Il serait tendancieux pensons-nous d'y voir comme cela a déjà été dit une volonté de militariser la société américaine. Faire appel à l'armée est une solution d'urgence pratiquée par tous les gouvernements quand il s'agit de renforcer au moins temporairement les moyens de défense civils.

Cette mesure est donc à distinguer de la récente décision de Barack Obama, destinée à doter l'Africa Command d'un contingents de 50 militaires (voire beaucoup plus aux dernières informations) susceptibles d'intervenir dans les pays africains touchés par l'épidémie, en priorité d'ailleurs au profit des moyens militaires américains basés dans ces pays. Cette annonce a fait non sans raisons l'objet de polémiques. Prise semble-t-il sans consultation sérieuse des autorités de santé, tant américaine qu'africaines ou internationale (OMS), elle a été présentée comme la volonté de réintroduire l'influence du Pentagone dans des pays qui avaient explicitement refusé d'héberger l'Africa Command, dont le siège s'est retrouvé faute de mieux en Allemagne.

La décision de Chuck Hagel pose par contre directement la question de savoir si, sur le territoire européen, des corps expéditionnaires de même nature ne devraient pas être mis en place par les ministères de la défense des pays de l'Union, tous également menacés tôt ou tard par l'épidémie. Beaucoup plus généralement, Il convient de se demander si les mesures actuellement prévues, y compris dans des pays comme la France qui s'estiment bien protégés, seraient satisfaisantes pour contenir un nombre de cas pouvant dans les prochains mois se multiplier.

Pour répondre à cette question, examinons les principaux points nouveaux récents à prendre en compte dans l'évaluation des risques.

Cas déclarés

Leur nombre ne cesse d'augmenter dans les 3 pays de l'ouest africains initialement touchés. On trouvera facilement les évaluations, évoluant tous les jours, sur divers sites crédibles. Les polémiques, qui ne manquent pas dans ce domaine particulièrement sensible, font valoir que quelques milliers de décès (à ce jour) sont sans gravité au regard des centaines de milliers imputables à la malaria, ou aux millions dus à la mal nutrition. Mais il faut comparer ce qui est comparable. Ni la malaria ni la malnutrition ne se développeront de façon épidémique. Dans le cas d'une épidémie, les risques de progression pourraient être très rapides, voire exponentiels, si aucune action de prévention ne se révélait efficace. Les morts s'ajouteront à ceux résultant d'autres fléaux.

Différentes autorités ont annoncé depuis plusieurs semaines que l'épidémie était devenue incontrôlable, au moins dans les pays touchés. Ces annonces, une fois de plus (nous y reviendrons) ont été présentées comme des manœuvres politiques ou économiques (venant des firmes pharmaceutiques). S'agirait-il d'enfermer l'Afrique dans un ghetto, ou de vendre davantage d'anti-virus? Toutes les mauvaises intentions sont possibles. Il reste que les morts sont les morts, et que ceux prétendant que l'ampleur de l'épidémie est très largement exagérée n'iront pas faire du tourisme, à l'heure qu'il est, en Afrique de l'Ouest.

Mais si l'on admet que l'épidémie soit dores et déjà incontrôlable, dans cette partie du monde, quelles conclusions en tirer? D'une façon générale, la fermeture totale des frontières ne serait, ni possible, ni éthiquement acceptable. Comme nous l'indiquons par ailleurs ci-dessous, aucun transfert massif de moyens de lutte venant des pays riches vers les pays pauvres contaminés n'est envisagé, à supposer que ce transfert soit envisageable dans les délais rapides nécessaires.

Inévitablement donc d'autres cas apparaitront – sans mentionner ceux qui ne seront pas déclarés. Ainsi, au Mali, un (ou plusieurs) patient souffrant d'Ebola vient d'être identifié. Une analyse des personnes susceptibles d'avoir été contaminées par lui est en cours. On imagine la difficulté de la tâche lorsque d'autres cas se feront jour. Par ailleurs, si l'épidémie se précisait au Mali, la France qui y entretient un grand nombre d'expatriés et de personnels militaires serait très rapidement concernée.

Les cas identifiés aux Etats-Unis ou dans d'autres régions du monde demeurent encore très peu nombreux. On pourrait donc penser que les mesures de détection et d'hospitalisation des malades, complétées d'isolement pour observation (quarantaine) des « contacts » qu'ils auraient pu avoir, devrait suffire. Mais tout dépend du nombre de cas qui se déclareraient dans les prochaines semaines. S'ils atteignaient quelques dizaines, ne fut-ce qu'au seul niveau européen, les moyens existants de détection, de soin et d'isolement seraient vite saturés. Que signifierait ainsi mettre en quarantaine des centaines de personnes, dans quels locaux, locaux qui pourraient vite se transformer en mouroirs.

Tests

Rappelons-le, il ne s'agit pas de vaccins ni de sérums, mais seulement de moyens permettant de vérifier si une personne est ou non porteuse du virus – à condition aussi, dans le premier cas, que sa charge virale soit suffisante. Plus ces tests pourront répondre rapidement, plus ils permettront d'isoler les personnes atteintes des autres, dits « cas contacts ». Sur ce point, des progrès décisifs paraissent en vue. Signalons par exemple que le petit laboratoire français Vedalab a élaboré un test qui permet de diagnostiquer la contamination au virus en 15 minutes au lieu de plusieurs heures. Il ne faut pas cependant se faire d'illusions. Pour produire et distribuer les millions (sinon bientôt centaines de millions) de dispositifs de test qui seront nécessaires, il faudra des moyens industriels qui n'existent pas aujourd'hui, et dont nul pays à ce jour n'entreprend la mise en place.

Vaccins

Les quelques filières annoncées dans divers pays n'ont pas encore été testées. Pour ce faire, il faudrait plusieurs semaines ou mois. On pourrait envisager d'utiliser des vaccins non testés, au moins compte tenu des risques, avec le consentement éclairé des personnes intéressées. Mais se posera la question précédente. Afin de lutter contre la contagion, il faudrait disposer de milliers de doses rapidement. Il en sera d'ailleurs de même si l'on obtient des vaccins s'étant avérés efficaces. Il faudrait pouvoir produire en quelques mois des millions de doses, puis les diffuser. Ceci demandera des moyens d'une toute autre ampleur que ceux nécessaires à la production de tests. Là encore, nul pays n'a encore décidé de mettre en place les équipements nécessaires. Le $milliard, d'ailleurs non encore débloqué, promis par l'ONU, n'y suffirait pas.

Il faut bien évidemment poursuivre les recherches, mais il serait vain d'en espérer des résultats rapides. On notera que GlaxoSmithKline, un des producteurs de vaccins actuellement en course, vient d'annoncer qu'à partir de décembre 2015, ils pourraient fabriquer 1 million de doses de vaccins par mois. Mais décembre 2015 est une date fort éloignée. Dans l'immédiat, des volontaires provenant de professionnels de santé envisageant de se rendre en Afrique se sont fait connaître, en Europe et notamment en Suisse, pour tester le vaccin.

Au sujet plus particulièrement des vaccins, nous ne pouvons pour notre part que condamner les manipulateurs d'opinion prétendant que le virus a été quasiment inventé, ou disséminé, par une conjuration des grandes firmes pharmaceutiques (big pharma). Avant que des profits éventuels puissent être recueillis par ces firmes, il se passera des années. En attendant, les personnes travaillant dans l'industrie pharmaceutiques auront beaucoup de chance elles-mêmes de succomber au virus. « Inventer » un virus sans avoir été capable d'en inventer préalablement le vaccin est une arme boomerang. Elle se retourne contre ses auteurs.

A ce sujet, il faut aussi répondre à des arguments qui ont dès le début circulé, et que notre article a lui-même suscité. Le virus Ebola serait le résultat de recherches financées par le Pentagone, au début des années 2000, soit pour protéger la population américaine d'une attaque bactériologique, soit pour produire des armes utilisable à titre offensif par l'armée américaine. Il est indéniable que des recherches ont eu lieu, plus ou moins discrètement. Mais de l'avis des spécialistes, elles se sont dispersées dans beaucoup de directions sans aboutir. Par ailleurs les premières souches d'Ebola sont apparues bien avant le 11 septembre 2001. De plus, l'argument du boomerang aurait, là encore, découragé d'emblée la mise au point et a fortiori l'utilisation d'armes virologiques ou bactériologiques. Elles ne manqueraient pas en ce cas de se retourner contre la population du pays ainsi agresseur. Vacciner celles-ci préventivement aurait évidemment donné l'alerte.

Cette raison explique que de telles armes, très difficiles à fabriquer, stocker et manipuler, contrairement aux gaz de combat, ont certes fait l'objet de recherches, un peu partout dans le monde, et le font encore. Mais elles n'ont jamais été développées sérieusement par aucun pays, y compris l'Allemagne nazie ni plus récemment les pays à la réputation militariste, par exemple la Corée du nord.

Sérums

Il n'existe pas encore semble-t-il de sérums efficaces permettant de traiter efficacement un malade déclaré. Des transfusions de sang provenant de malades guéris ont été envisagées, mais ceci n'est évidemment pas généralisable. L'utilisation d'antiviraux ou d'anti-rétroviraux est à l'étude, sans conclusions positives. L'OMS avait il y a quelques jours annoncé la mise au point expérimentale et non encore testée sur l'homme de plusieurs traitements, dont le Zmapp, un cocktail de 3 anticorps dits « monoclonaux ». Les anticorps monoclonaux sont issus d'une seule lignée de globules blancs, provenant d'une seule cellule. La difficulté de les obtenir est on le conçoit extrême.

Les seuls soins possibles aujourd'hui consistent à renforcer les défenses immunitaires des malades, et lutter contre leur déshydratation. La mortalité demeure d'environ 50%, plus élevée semble-t-il dans les pays pauvres. Avec des soins performants, selon l'OMS, elle pourrait tomber à 20%, ce qui restera considérable. Par ailleurs, les raisons pour lesquelles certaines personnes ne sont pas atteintes ou guérissent n'ont pas encore été élucidées. Elles pourraient donner des indices précieux pour la suite. Là encore, les moyens d'étude nécessaires, qui obligeraient à mobiliser de nombreux laboratoires, n'ont pas été rassemblés.

Inutile là encore de s'appesantir sur les arguments spécieux selon lesquels il vaudrait mieux lutter contre la pauvreté des pays touchés et les conditions déplorables de certains bidonvilles comme ceux de Monrovia, que lutter contre les agents épidémiques. Il est indéniable que si l'on pouvait en quelques mois remplacer ces bidonvilles par de coquettes banlieues à l'européenne, leur condition sanitaire s'améliorerait. Mais ce serait des centaines de milliards de dollars qui seraient nécessaires. Les dispensateurs de ces bons conseils sont-ils prêts à se saigner à blanc pour commencer à rassembler les moyens nécessaires?

Mutations génétiques au sein des différentes souches de virus Ebola, Marburg ou assimilés

Les virus mutent en permanence, mais de façon si l'on peut dire superficielle. Aucune mutation d'importance à ce jour n'a été observée, ni pour modifier sensiblement leur virulence, ni pour modifier leur contagiosité., que ce soit en plus ou en moins. Il est certain que plus la population de malades s'étendra, plus de telles mutations seront probables. En principe, si le nombre de personnes atteintes augmente, la virulence doit s'atténuer. Ceci pour la raison très simple qu'en bons darwiniens les microbes et virus finissent par comprendre qu'en tuant tout le monde, ils scient la branche sur laquelle ils prospèrent. Mais ils l'ont déjà compris dans le cas d'Ebola. Une mortalité à 50%, ou même à 20%, laisse aux virus suffisamment de terrain pour s'étendre sans risquer la disparition.

Equipement des centres de soins

Ceux-ci, qu'il s'agisse de bulles plastiques isolantes pour le transport, ou de salles de soins isolées, sont quasiment inexistants dans les pays africains touchés. On craint même partout des ruptures de stocks des vêtements spécialisés permettant aux soignants de se protéger.

En Amérique et en Europe, un certain nombre d'équipements ont été installés. Mais ils ne pourront faire face qu'à des cas isolés. La pauvreté des services de santé, même dans les pays riches, ne permettra pas d'espérer un renforcement sensible et rapide de tels équipements, sauf à désorganiser l'ensemble des dispositifs hospitaliers. Se posera par ailleurs la question de la formation à grande échelle des personnels de santé, comme le cas échéant de leur volontariat.

Signalons que la fermeture envisagée de l'hôpital militaire du Val de Grâce, à Paris, pour raisons d'économie, privera notre pays d'un équipement et de personnels qui seront indispensables lorsque l'épidémie d'Ebola se développera.

Conclusion

La conclusion que nous tirons de ce qui précède, à titre personnel et à la date de mise en ligne de cet article (soit le 29 octobre) sera peu différente de celle de notre article précédent référencé ci-dessous (Cf Ebola ou notre inconscience ).

Elle consiste à prévoir que l'épidémie d'Ebola, en dehors des pays où elle est dite incontrôlable, couvera dans le reste du monde pendant plusieurs semaines ou mois, sous une forme contrôlable. Mais le moindre accident pourrait la rendre exponentielle. Que se passerait-il en France, par exemple, si une dizaine de cas se déclaraient à quelques jours d'intervalle, non détectés aux frontières et se révélant quelques jours après, sans que les premiers symptômes à partir desquelles la contagiosité devient maximum n'aient été identifiés . Ce serait des centaines de contacts qu'il faudrait immédiatement mettre en isolement, voire le cas échéant soigner. L'effet de panique s'ajoutant à cela, la vie sociale aurait toutes les chances d'être paralysée.

Ce propos sera considéré comme pessimiste. Mais le pessimisme est, en matière de santé publique, préférable à l'optimisme. Il permet de mieux se préparer. En l'espèce, il devrait conduire à mobiliser préventivement et sans délais les milliards de dollars qui seraient nécessaires pour remédier aux problèmes non résolus évoqués dans cet article. On serait loin alors des préoccupations de lutte contre les déficits budgétaires qui pour le moment sont les seuls à mobiliser l'attention.

Articles précédents sur notre site:

* http://www.admiroutes.asso.fr/larevue/2014/149/ebola2.htm

* http://www.admiroutes.asso.fr/larevue/2014/149/ebola.htm

* http://www.admiroutes.asso.fr/larevue/2014/148/ebola.htm

Autres articles

*Newscientist
Concernant l'OMS voir une proposiition visant à le renforcer
Global agency needed for battling infectious diseases
Voir aussi
Future scenarios show how easily Ebola could explode

* Dans cet article Bloomberg, analyste financier, constate les réductions importantes dans les budgets de santé américains rendant la lutte contre les épidémies de plus en plus difficile http://www.bloomberg.com/news/2014-10-03/ebola-flew-to-dallas-as-budgets-to-fight-disease-waned.html

Addendum

Nous ne ferons pas ici un catalogue des articles, soit plus ou moins mal informés soit volontairement tendancieux, qui circulent désormais, à vitesse virale, sur le sujet. Certains, c'est assez surprenant, proviennent de personnes se disant médecins. Nous avons l'un de ceux-ci sous les yeux. L'auteur, virologue, n'hésite pas à affirmer que le virus ébola a été inventé, comme celui de la grippe. Cet éminent spécialiste semble oublier, entre autres, que la grippe espagnole a fait en Europe, dans les années 1918- 1920 ou 1925, plus de morts que la première guerre mondiale. Or elle n'a pu être inventé, faute à cette époque de connaissances médicales suffisantes.

D'autres arguments paraissent plus convaincants à première vue. Selon eux, l'OMS serait très largement sous contrôle de lobbies médicaux et pharmaceutiques. La chose est indéniable. Mais la communauté des scientifiques qui travaillent en relation avec cet organisme ou d'autres analogues, sans être financés par eux, savent comment se défendre contre d'éventuelles campagnes de désinformation provenant de membres de l'OMS éventuellement corrompus. Ceci ne veut pas dire qu'il faille rejeter l'organisme tout entier avec l'eau du bain. Une telle structure internationale manquerait en effet si elle n'existait pas. Elle offre une aide très appréciée, notamment des pays du tiers monde.

Partager cet article

28 octobre 2014 2 28 /10 /octobre /2014 10:41

The language myth

Why Language is not an instinct

par Vyvyan Evans

Cambridge University Press, Sept 2014

Présentation et commentaire par Jean-Paul Baquiast
26/10/201
4

Vyvyan Evans est professeur de linguistique à l'Université de Bangor (Royaume Uni)

Voir son site http://www.vyvevans.net/

Bangor University, Pays de Galles http://www.bangor.ac.uk/

Introduction

Nous avions très vite compris, sur ce site, que l'hypothèse de Noam Chomsky sur l'origine du langage n'avait pas de base scientifique sérieuse. Selon cette hypothèse, qui avait longtemps été admise par les linguistes, l'aptitude au langage, qu'il soit parlé ou écrit, reposait sur une propriété spécifique à l'homo sapiens, l'existence d'une aire cérébrale dédiée, dont les animaux ne disposaient pas. Cette aire cérébrale serait apparue chez les hominiens vers 2 à 1 millions d'années bp, à la suite d'une mutation génétique. Une fois admise cette hypothèse, le travail du linguiste dit évolutionnaire, s'intéressant à la façon dont les langages étaient apparu au sein de nombreuses espèces animales, en évoluant progressivement vers les propriétés qu'il manifeste aujourd'hui chez l'homme, perdait une partie de son intérêt.

On peut tout expliquer en effet à partir d'une mutation génétique, même si les études plus récentes et plus précises de la neurologie humaine ne permettent pas de localiser avec précision l'aire prétendument dédiée au langage. Certes, il existe des aires (dites de Broca et de Wernicke) dont une paralysie rend le sujet incapable de s'exprimer, mais on peut les considérer comme des portes d'entrée-sortie servant au cerveau pensant à communiquer par le langage. Ce n'est pas en leur sein que s'élabore la pensée ni même la façon dont celle-ci se traduit en modules de communications divers, dont le langage fait partie. C'est le cerveau global qui selon les hypothèses récentes, génère les contenus langagiers.

Pendant longtemps cependant, l'hypothèse de Chomsky a fait la loi dans les sciences linguistiques, tout au moins chez celles qui s'enfermaient dans une approche étroitement disciplinaire, relevant davantage de la philosophie que des études interdisciplinaires de biologie et anthropologie évolutionnaire devenues aujourd'hui indispensables pour commencer à comprendre les questions complexes liées à la communication au sein du vivant. Le philosophe Jerry Fodor l'a reprise avec enthousiasme, de même que le linguiste Steven Pinker, pourtant plus ouvert que d'autres à ce qui se passait dans d'autres sciences 1) .

Cependant, la plupart des « jeunes » linguistes avaient depuis déjà un certain rejeté Chomsky et son simplisme méthodologique. Il leur manquait cependant une voix non seulement parfaitement compétente mais dotée de suffisamment d'enthousiasme pour se faire entendre bien au delà des cercles linguistiques et même au delà des sciences humaines. Ce n'est plus le cas aujourd'hui. Les travaux de Vyvyan Evans, présenté dans son tout récent ouvrage « The Language Myth: Why language is not an instinct » remet en cause, à destination d'un public généraliste, l'hypothèse de ce qu'il appelle le langage-instinct, dont Chomsky s'était fait le héros.

Ce terme de langage-instinct correspond à l'hypothèse rappelée ci-dessus, selon laquelle les humains sont génétiquement câblés pour comprendre et utiliser le langage, ceci dès la naissance.Evans lui oppose l'hypothèse qu'il nomme "language-as-use", terme que l'on pourrait traduire de cette façon un peu compliquée : « langage comme processus construit interactivement tout au long de l'évolution biologique » Nous retiendrons ici le terme de Evans, en le traduisant par « langage-usage ».

Inutile de dire au terme de cette introduction que nous recommandons chaudement la lecture du livre de VyVyan Evans, auquel d'ailleurs il préparerait une suite à paraître dans quelques mois. Bien qu'écrit dans un anglais très fluide, il aurait intérêt à être traduit en français afin d'être mieux connu d'un public pour qui la linguistique demeure la science qui se borne à discourir sur l'origine des mots telle qu'elle est présentée dans les dictionnaires.

La déconstruction du concept de langage-instinct.

L'auteur considère, selon nous à juste titre lorsque l'on y regarde de près, que la thèse dite du langage-instinct popularisée par Chomsky n'est pas encore rangée au rayon des antiquités. Selon lui, elle fait encore de nombreux ravages, non seulement dans les sciences humaines mais dans les opinions du grand public relatives au langage et aux formes qu'il prend dans la société contemporaine. Dans sa critique, il ne s'embarrasse donc pas de précautions diplomatiques. Il attaque avec vivacité des concepts, ou plutôt des croyances qui selon lui paralysent encore les recherches, non seulement sur les langages humains, mais sur les différents formes de communication langagière propres aux êtres vivants en général.

Le mythe du langage-instinct se trouve confortée dans l'opinion par l'observation de la facilité avec laquelle un jeune enfant, voire un nouveau-né, communique avec sa mère et très vite avec son entourage, rien qu'en les entendant parler autour de lui. Comme il n'a encore rien appris en matière de règles grammaticales ou autres, il faut, pense-t-on, que son cerveau ait été câblé dès la naissance pour ce faire. Mais câblé où et comment? Chomsky pense qu'il existe dans le cerveau un « module du langage » ou plutôt un « module d'acquisition du langage », comme il existeraient bien d'autres modules, à en croire l'hypothèse aujourd'hui abandonnée du cerveau modulaire. Ce module, d'origine génétique, s'activerait progressivement, point à point, quand l'enfant se heurte aux complexités du langage.

Chomsky ne pense évidemment pas que chaque enfant dispose héréditairement d'une grammaire adaptée au langage maternel. Le module du langage contient une « grammaire universelle » capable de générer les règles de n'importe lequel des 7.000 langages recensés aujourd'hui. Mais l'hypothèse est contredite par les faits. On ne découvre aucune trace de grammaire universelle lorsque l'on étudie, non pas les 7000 langues mais seulement quelques unes d'entre elles. Plus on observe de langages, en dehors de ceux prédominant actuellement dans le monde moderne, plus leur diversité apparaît et plus l'hypothèse d'une grammaire sous-jacente perd de sa pertinence.

Par le terme de grammaire, sans entrer dans les détails, on peut désigner les règles simples utilisées dans nos propres langages modernes, par exemple l'existence de sujets, de verbes et de compléments, quel que soit l'ordre dans lequel ceux-ci sont exprimés. Or ces règles, que par ignorance nous considérons comme universelles, ne se retrouvent pas dans de nombreux langages, jadis florissants mais aujourd'hui quasiment disparus, ceux des aborigènes australiens ou des amérindiens du Canada, par exemple.

L'observation de la façon dont les communautés de « sourds » construisent spontanément des langages par signes, fournit d'autres éléments intéressants contredisant l'hypothèse d'une grammaire universelle. Ces langages ne surgissent pas du néant, mais s'enrichissent graduellement à l'usage. Il en est de même des observations, beaucoup plus faciles à conduire, concernant la façon dont les enfants construisent et complexifient progressivement leurs éléments de langage. Cette façon n'est pas liée à la mise en oeuvre progressive de ressources génétiquement codifiées, mais à ce que les enfants entendent et assimilent par l'usage. D'où d'ailleurs l'importance d'une immersion la plus rapide possible dans un environnement culturellement riche.

Une question plus difficile à appréhender concerne les relations entre les éléments de langage utilisés par un individu donné et les contenus ou sens que celui-ci leur attribue. Si les règles sont génétiquement définies, comment se fait-il qu'elles peuvent engendrer tant de variétés ou variantes dans les contenus cognitifs des individus? Des linguistes tels que Pinker, précité, s'étaient ralliés à l'hypothèse selon laquelle existait dans le cerveau un langage interne de pensée, ne donnant pas a priori de sens concrets aux contenus mentaux et que l'expérience de chacun permettrait de concrétiser. Ce langage avait été nommé le « mentalais » Nous l'utiliserions sans nous en rendre compte lorsque nous pensons, mais sans traduire cette pensée en langage précis.

La théorie du mentalais avait été principalement élaborée par Jerry Fodor, précité. Pour lui, le mentalais serait une sorte de langage mobilisant les processus mentaux, permettant d'élaborer des pensées complexes à partir de concepts plus simples. Fodor a présenté cette thèse en 1975 dans son ouvrage intitulé The Language of Thought. Selon Pinker, connaître un langage consiste à transformer le mentalais en mots et en phrases. Inutile de dire que cette hypothèse, impossible à démonter, est finalement tombée dans l'oubli. Il ne s'agit pas de nier que l'on puisse penser sans faire appel au langage.Tout le monde le fait et vraisemblablement aussi de nombreux animaux. Il s'agit seulement de proposer que cette pensée utilise des mécanismes mentaux pré-linguistiques ou même non linguistiques.

On peut observer que Jean Piaget, qui exerça longtemps une influence déterminante dans l'élaboration de ce qui a été appelé une théorie constructiviste du développement intellectuel, ne distingue pas clairement entre l'inné et l'acquis en matière d'acquisition du langage par l'enfant. Selon lui, l'origine de la pensée humaine ne naît pas de la simple sensation, elle n'est pas non plus un élément inné. Elle se construit progressivement, dans le cadre de phases successives ou périodes que traverse l'enfant en fonction de son âge, chacune conditionnant l'autre. Lorsque l'enfant entre en contacts répétés avec le monde, il développe des unités élémentaires de l'activité intellectuelle, appelés schèmes. Mais, en ce qui concerne le langage, et bien que refusant l'innéisme, Piaget semble admettre qu'en se développant, le cerveau mobilise des ressources génétiques disponibles mais non encore valorisées.

La construction du concept de « langage-usage »

Pour sortir de l'enfermement qu'impose au linguiste les théories du langage-instinct, Evans a fait appel aux multiples études qui depuis 15 ou 20 ans se sont attachées à comprendre comment les animaux et plus généralement les êtres vivant communiquent, quels types de langages ou proto-langages ils ont élaboré pour ce faire, comment leurs cerveaux et plus généralement leurs corps et leurs sociétés se sont construits, au cours de millions d'années, dans le cadre d'une co-évolution néo-darwinienne avec la communication.

A ces bases fournies par les sciences du vivant, il faut dorénavant ajouter les apports d'une robotique évolutionnaire de plus en plus créatrice, montrant comment des communautés de robots peuvent dorénavant élaborer des langages encore simples certes, mais donnant fort à réfléchir aux linguistes. Pour les lecteurs de notre site, tout ceci n'est guère original. Il est néanmoins intéressant d'observer comment un linguiste un peu révolutionnaire tel que Evans en tire parti.

Le premier travail à faire, pour qui veut cesser de considérer le langage humain comme une exception dans la nature, spécifique à une espèce humaine elle-même exceptionnelle, consiste à démontrer que des langages, ou tout au moins des proto-langages, peuvent être retrouvés dans un certain nombre d'espèces animales. Vyvyan Evans rappelle en détail les travaux en ce sens qui se sont multipliés depuis une trentaine d'années, portant sur les primates, mais aussi sur les baleines, d'autres mammifères, les oiseaux et même les poulpes. Ou bien ces animaux ont été observés au naturel, ou bien dans le cadre d'expériences conduites en interaction directe avec un humain.

Concernant les primates, chimpanzés notamment, quelques expériences devenues célèbres ont consisté à élever certains jeunes comme des enfants humains, ou à leur enseigner le langage des signes. En aucun cas, ces animaux n'ont pu acquérir des capacités langagières aussi diverses et constructrices que celles des humains, mais les performances qu'ils ont manifesté montraient clairement qu'il existe une continuité directe entre leurs langages et les nôtres.

Très vite cependant s'est posé la question de distinguer entre langage et communication. Pratiquement toutes les espèces, animales ou végétales, ont développé des techniques de communication, le plus souvent entre individus, mais parfois aussi d'une espèce à l'autre. Même les bactéries ou cellules (notamment cancéreuses) communiquent entre elles afin de constituer des réseaux et réaliser des actions collectives. On a nommé « quorum sensing » la propriété qu'ont certaines bactéries de passer à l'offensive dans un organisme infecté en s'informant les unes les autres de leur nombre ou de leur virulence.

Mais s'impose la nécessité de montre en quoi le langage ne se réduit pas à la seule communication. Evans cherche à le faire, mais d'une façon un peu superficielle. Ceci parce qu'il n'a pas sans doute les bases suffisantes pour relier en détail la linguistique et les sciences devenues aujourd'hui très nombreuses traitant non seulement de la communication mais de l'information. L'approche technologique est aujourd'hui nécessaire, car elle permet de mieux comprendre le biologique. Evans mentionne certes les célèbres danses des abeilles, utilisant des symboles, une intersubjectivité, des référentiels géographiques, certains disent une récursivité propres aux langages humains. Il se demande à juste titre s'il s'agit de langages. Nous avons cru comprendre qu'il répondrait par l'affirmative.

Au niveau de l'humain, il rappelle que les innombrables processus de communication non parlée entre individus, sont des langages ou tout au moins des précurseurs des langages. Certains anthropologues considèrent d'ailleurs que les hominiens, avant de développer des langages vocaux, utilisaient des langages par gestes tout à fait efficaces. Ces faits démontrent la continuité qui existe dans la nature entre la communication et le langage proprement, de la même façon qu'existe une continuité évolutionnaires entre tous les êtres vivants sur le plan corporel, notamment concernant l'évolution des organes sensoriels et des systèmes nerveux.

Les origines

Le livre, qui est très documenté (il comporte presque 1/5 de notes et références (difficiles à consulter faute d'accès à l'internet) aborde un certain nombre de questions s'inscrivant dans cette approche biologique plus générale. Il pose notamment l'inévitable question portant sur la façon dont les langages sont apparus dans le cadre de l'histoire de ce qu'il convient d'appeler en simplifiant l'espèce humaine. Il n'hésite pas, si nous l'avons bien compris, malgré les nombreux préjugés contraires, à postuler que des formes rudimentaires de langage se sont manifestées durant la longue période ayant permis aux australopithèques de diverger de l'ancêtre commun qu'ils avaient partagé avec d'autres primates.

Il mentionne une hypothèse que nous avions nous-mêmes présentée 2). Ce fut sans doute le développement d'un usage systématique d'outils naturels déjà employés par divers animaux mais de façon discontinue, avec le développement corrélé (co-développement) des signes ou vocables de nature prélangagière désignant ces outils et leurs usages, qui a permis l'émergence du langage. Ceci donc bien avant l'époque de l'homme du néanderthal généralement considéré comme le premier homo capable de parler.

Mais cette hypothèse ne suffit pas à éclairer la question de l'origine du couple outil-langage. Pourquoi et comment certains australopithèques se sont-ils différenciés sur ce point capital de leurs contemporains primates? Faut-il faire appel à l'explication un peu simpliste de la mutation génétique. S'est-il agit seulement de l'adaptation à un changement dans le milieu naturel s'étant imposé à ces australopithèques, changement n'ayant pas affecté les autres primates? Dans ce cas, ce fut probablement une co-évolution, là encore, entre les modifications imposées à l'organisme, et donc aux gènes de ces australopithèques par l'adaptation à ce milieu nouveau, et leurs capacités neurologiques à la « vision » symbolique, qui a rendu possible l'invention de l'outil et du langage. Mais aussi séduisante que soit cette explication, elle peut paraître un peu « ad hoc ». De nombreuses espèces ont du s'adapter à des changements de milieu sans acquérir la capacité d'utiliser systématiquement des outils et des langages.

Ce qui nous paraît presque certain par contre est le fait que la généralisation et la diversification des outils et de leurs usages fut un des principaux facteurs, sinon le principal, ayant permis l'enrichissement de la pensée symbolique à l'origine des capacités langagières. Les neurones-miroirs cités d'ailleurs par Evans ont joué un rôle en ce sens. Ils sont à la base de l'imitation. La vue d'un geste bien déterminé, comme celui consistant à utiliser une pierre pour casser une noix, active dans le cortex des neurones-miroirs qui se réactivant à leur tour hors de la vue du geste, permet la répétition de celui-ci. Or si cette vue a déjà été symbolisée dans le cerveau du premier utilisateur, on peut admettre que la transmission de ce symbole vers d'autres individus s'est faite parallèlement. Cependant, de nombreux animaux utilisent des instruments et outils de façon aléatoire. Ils disposent pourtant de neurones-miroirs. Mais leur cortex est moins développé que celui de l'homme. La question de l'origine reste donc posée.

Le lecture du livre de Vyvyan Evans suscite de nombreuses questions de cette nature. Il ne les approfondit pas ou ne les évoque pas. Ce jugement n'est pas une critique, mais au contraire un compliment. En 300 pages, il ne pouvait tout dire. Il est déjà plus que remarquable qu'il oblige le lecteur à se poser des points d'interrogations. Par exemple, le langage crée-t-il son objet? Autrement dit oblige-t-il l'interlocuteur à voir le monde de la même façon que le locuteur, tout au moins si l'un et l'autre partagent globalement la même culture. Qualifier quelqu'un de féminin l'enferme-t-il dans tous les symboles attribués à la féminité? Evans évoque la question, mais il ne fait pas appel aux discussions contemporaines pourtant très éclairantes concernant le langage scientifique et sa capacité à représenter de façon symbolique, sinon à créer proprement dit, un réel considéré comme extérieur à l'observateur – aussi bien d'ailleurs dans le domaine de la physique macroscopique que dans celui de la physique quantique ? Dans un autre domaine, le rire et les pleurs, considérés comme le propre de l'homme, sont-ils liés et comment au langage?

Une autre question doit être évoquée. Il s'agit de celle de l'imagination créatrice. Celle-ci est généralement considérée comme un des traits fondamentaux distinguant l'homo sapiens de ses prédécesseurs. Le langage y joue-t-il un rôle et comment? Les « visions » générées par le cerveau et pouvant modifier les comportements, dans la vie courante comme en matière d'invention scientifique, reposent-elles sur des images mentales préconscientes ou inconscientes, créées par l'imagination, notamment dans le sommeil? Ces images peuvent-elles être considérées comme des éléments de langage? Ceci qu'il s'agisse du langage courant ou du langage scientifique évoqué plus haut.

Conclusion

Il est bien évident qu'un professeur de linguistique, aussi ouvert et curieux qu'il puisse être, ne peut à lui seul, pour traiter du langage, aborder toutes les sciences qui s'imposeraient pour ce faire. Il faudra l'entreprendre cependant un jour, mais en se plaçant dans une approche interdisciplinaire sans exclusives. Comment un singe apparemment comparable aux autres a-t-il pu en quelques millions d'années, dites aujourd'hui de l'anthropocène, évoluer jusqu'à devenir capable de provoquer un bouleversement climatique profond et une nouvelle extinction généralisé des espèces vivantes? En quoi les capacités langagières ont-elles contribué à cette évolution? Les successeurs éventuels de l'homo sapiens, dits post-humains, seront-ils des entités biologiques « augmentées », des entités langagières ou même des entités numériques ou mathématico-numériques de type algorithmique? Que seront leurs langages?

Pour commencer à répondre à ces questions (sans pour autant espérer échapper aux enfermements imposés par les pratiques et langages scientifiques contemporains), il faut remonter aux origines, celles de la vie comme celles de l'espèce humaine. Concernant cette dernière il faut remonter aux origines de son génome spécifique, se répercutant sur les origines de son cerveau, de sa conscience et bien évidemment de ses cultures et civilisations.

Compte tenu de la réduction continue des crédits affectés à la recherche fondamentale, sauf dans le domaine militaire, il est à craindre que notre civilisation, celle à laquelle le signataire de cette recension s'honore d'appartenir, refusant les solutions simplistes imposées par les religions et la violence, ait disparu avant d'avoir proposé ne fut-ce que des débuts de réponses scientifiques.

Notes

1) Nous lui avions nous mêmes il y a plus de 10 ans fait écho en présentant les travaux de Pinker. Mais depuis, Dieu merci, nous l'avons abandonné, pour tenir compte des innombrables travaux survenus depuis et portant sur les différentes formes de langage et de communication (incluant le domaine des entités et réseaux numériques) . Voir:
*http://www.automatesintelligents.com/biblionet/2003/sep/pinker.html *http://www.automatesintelligents.com/biblionet/2001/jan/s_pinker.htm

2) J.P. Baquiast. Le paradoxe du sapiens 2010

Partager cet article

Articles Récents

Liens