Suivre ce blog
Administration Créer mon blog

Texte libre


Pourquoi ce blog ?

Cet ensemble de textes a été conçu à la demande de lecteurs de la revue en ligne Automates-Intelligents souhaitant disposer de quelques repères pour mieux appréhender le domaine de ce que l’on nomme de plus en plus souvent les "sciences de la complexité"... lire la suite

Recherche

4 juillet 2015 6 04 /07 /juillet /2015 15:34

Le Big Rip
Jean-Paul Baquiast 04/07/2015

Le concept de viscosité cosmologique concerne l'application à la cosmologie du concept de viscosité. Celui-ci ne désigne pas seulement un état de la matière ordinaire (la viscosité d'un liquide, par exemple) mais la façon de mesurer la résistance d'un fluide en expansion ou en contraction. Sur Terre, la viscosité d'un liquide donné (qu'il s'agisse d'eau pure ou d'un sirop épais) ne change que très peu, car aux conditions habituelles, ce liquide ne peut être comprimé ou décomprimé que faiblement. Il n'en est pas de même au plan cosmologique.

Les théories aujourd'hui admises relativement à l'évolution de l'univers postulent que celui-ci a commencé sous une forme extrêmement dense, celle qu'il avait quelques instants après le Big Bang, et qu'il pourrait finir (dans l'hypothèse dite du Big Freeze), sous une forme extrémement peu dense ou diluée, les galaxies et les étoiles s'éloignant inexorablement les unes des autres et la matière s'étant trop dispersée pour pouvoir sous l'effet de la gravité donner naissance à de nouveaux nuages pré-galactiques ou pré-stellaires.

Aujourd'hui, une équipe de mathématiciens et de cosmologistes provenant entre autres de l'Université Vanderbilt, vient de publier dans le journal Physical Review un article (voir abstract ci-dessous) proposant une autre approche de la viscosité cosmologique. Pour cela, ils se sont efforcés de résoudre l'incompatibilité entre la Théorie de la relativité générale proposée par Einstein et les lois de la thermodynamique gouvernant l'évolution de la viscosité.

Leur nouveau modèle est mathématique. Il ne peut être soumis à vérification expérimentale, ce que certains d'autres chercheurs reprochent à ce travail. Mais les auteurs répondent qu'il en est de même des modèles cosmologiques évoqués ci-dessus, impliquant l'évolution de l'univers, comme de la plupart des autres modèles, sans mentionner les formulations plus contestées de la théorie des cordes.

Ce nouveau modèle trouve une application directe à ce que pourrait être la fin de l'univers, si celui-ci était soumis à une expansion accélérée et non à une expansion qui se ralentirait progressivement pour se transformer en contraction (le Big Crunch) ramenant l'univers à l'état qu'il avait lors du Big Bang. Le modèle propose le terme de Big Rip (dissolution) pour caractériser l'état final de l'univers – le terme d'état final supposant évidemment des mesures du temps telles que nous l'utilisons actuellement, c'est-à-dire un temps invariable, tel que décrit Lee Smolin dans son dernier livre (Voir référence ci-dessous)

Un des auteurs de l'étude, Marcelo Disconzi, est parti d'une réflexion sur l'état de la matière-énergie soumiseà des vitesses relativistes (extrêmement élevées), telle qu'elle est produite par des étoiles à neutrons ou lors de l'explosion des supernovas. Personne n'avait jusqu'ici réfléchi à ce que devenait la viscosité de tels fluides. Les modèles mathématiques actuels cherchant à décrire l'état de fluides accélérés à des vitesses proches de celle de la lumière aboutissent à des incohérences, telles que celles selon lesquelles ces fluides pourraient se déplacer à des vitesses supra-lumineuses

Lichnerowicz

Le mathématicien a donc ré-écrit les équations de la dynamique relativiste des fluides, en éliminant le postulat selon lequel ces fluides puissent se déplacer plus vite que la lumière. Il s'est appuyé au départ sur les travaux du mathématicien français André Lichnerowicz dans les années 1950. Il les a étendus sous la forme d'une théorie cosmologique plus large. Celle-ci l'a conduite à jeter un regard nouveau sur la mystérieuse énergie noire, souvent mentionnée sur ce site, et qui serait le facteur répulsif moteur de l'expansion accélérée de l'univers telle qu'observée aujourd'hui.

Les hypothèses concernant l'énergie noire ne prennent pas en compte, selon Disconzi, la viscosité cosmologique, en dépit du fait qu'elle aurait un effet répulsif très voisin de celui résultant de l'énergie noire. Il est possible qu'au moins une partie de l'énergie noire puisse s'expliquer, beaucoup plus simplement, dans le cadre de la viscosité cosmologique.

Nous renvoyons à l'article de la Physical Review ceux de nos lecteurs ayant les bases mathématiques nécessaires pour apprécier la validité des hypothèses formulées par l'équipe de Vanderbilt. Signalons seulement qu'une des conclusions qui en découlerait serait, dans l'hypothèse d'une expansion infinie de l'univers et non d'un Big Crunch, qu'un scénario possible serait celui qu'ils ont nommé le Big Rip.

Dans le cas d'une énergie noire accélérant d'une façon ininterrompue la vitesse d'expansion de l'univers, dans un temps approximatif de 22 milliards d'années (sans commentaires) les objets matériels pourraient se désassembler complètement, les atomes eux-mêmes se désagrégeant en particules élémentaires et radiation.

Les chercheurs pensent pouvoir proposer un paramètre d'état ou équation mesurant les différences de pression et de densité entre l'énergie noire et viscosité cosmologique, telle que calculée par eux. Si ce paramètre tombe en dessous de – 1, le Big Rip deviendrait possible. Pour approfondir ces perspectives, ils auront besoin de calculateurs plus puissants que ceux à leur disposition. Il n'est pas impossible, espèrent-ils, que dans ces conditions ils aboutissent à des hypothèses pouvant recevoir un début de preuves expérimentales.

L'étude ne situe pas le scénario du Big Rip résumé ici dans ceux concernant le multivers. Ils pourraient être incompatibles. Rappelons que beaucoup de théoriciens du multivers imaginent, comme Lee Smolin précité, que les univers se succèderaient de Big Crunch en Big Bang, dans un cadre temporel invariable. Pour d'autres au contraire, les univers pourraient être en très grand nombre, pour ne pas dire infiniment nombreux. En ce cas, chacun d'eux, issus de fluctations du vide quantique, pourrait disposer de lois fondamentales différentes, dans lesquelles les calculs concernant la viscosité cosmologique telle que proposée par l'équipe de Vanderbilt pourraient être inapplicables.


Abstract of New approach to cosmological bulk viscosity

We examine the cosmological consequences of an alternative to the standard expression for bulk viscosity, one which was proposed to avoid the propagation of superluminal signals without the necessity of extending the space of variables of the theory. The Friedmann equation is derived for this case, along with an expression for the effective pressure. We find solutions for the evolution of the density of a viscous component, which differs markedly from the case of conventional Eckart theory; our model evolves toward late-time phantomlike behavior with a future singularity. Entropy production is addressed, and some similarities and differences to approaches based on the Mueller-Israel-Stewart theory are discussed.

Reference

New approach to cosmological bulk viscosity
http://journals.aps.org/prd/abstract/10.1103/PhysRevD.91.043532

Pour en savoir plus

Sur la question des multivers et du temps, voire notre article recensant les 3 ouvrages de Aurélien Barrau, de Caelo Rovelli et de Roberto Mangabeira Unger/ Lee Smolin
http://www.automatesintelligents.com/biblionet/2014/oct/univers_est_il_unique.html

Partager cet article

Jean-Paul Baquiast - dans sciences
commenter cet article
2 juillet 2015 4 02 /07 /juillet /2015 15:50


Jean-Paul Baquiast - 02/07/2015

Jean-Claude Carrière, dans son dernier livre, Croyance (Odile Jacob 2015), écrit "Nous devons à présent nous faire une raison. A l'issue d'un long combat, la croyance, aujourd'hui, l'emporte sur la connaissance."

Jean-Claude Carrière est athée. Nul n'est parfait. A ce titre, il a discuté avec les scientifiques de ce que représente pour eux la connaissance. Il ne s'agit pas d'une croyance en la vérité absolue en ce que la science décrit comme le réel, mais d'une croyance en la vérité relative de cette description. Autrement, toute description du réel par la science, découlant d'hypothèses confirmées par des preuves expérimentales, n'a de valeur que dans la mesure où un consensus de scientifiques s'établit à son égard. Si à la suite de recherches nouvelles, nouvelles hypothèses suivies de nouvelles preuves, ce consensus se fragilise et laisse place à d'autres consensus, le scientifique digne de ce nom abandonne sa croyance en la vérité relative de son ancienne connaissance et croit – toujours de façon relative, à la vérité relative de cette nouvelle connaissance.

Les discussions actuelles sur la « réalité » d'un réchauffement climatique résultant des activités humaines en donnent un bon exemple. Il s'est établi sur ce thème un très large consensus de climatologues et représentants d'autres disciplines pour adopter cette hypothèse et donc pour la considérer comme « vraie », autrement dit, dans le langage courant, pour y croire. Pour eux, tous ceux qui nient l'hypothèse, dits climato-sceptiques, ne sont donc que des scientifiques égarés par des égo(s) déraisonnables ou simplement les agents inconscients des forces économiques qui veulent continuer à brûler des combustibles fossiles « comme avant » . Mais si de nouvelles recherches, dûment vérifiées en termes expérimentaux, attribuaient le réchauffement à une toute autre cause, et si un nouveau consensus s'établissait à ce sujet, leur « croyance » en la cause humaine du réchauffement se relativiserait.

Jean Claude Carrière a suffisamment fréquenté de cosmologistes et de physiciens pour savoir que les connaissances scientifiques, et donc les croyances qu'elles suscitent, ne se limitent pas à l'étude d'un réel de type quotidien, sur lequel des consensus peuvent raisonnablement s'établir. Les cosmologistes, par exemple avec le concept de trou noir, ou les physiciens avec celui de vide quantique proposent des hypothèses sur lesquelles ils peuvent légitimement s'opposer, autrement dit sur lesquelles les consensus restent fragmentés. Des preuves expérimentales de ces hypothèses peuvent être obtenues, mais elles restent très fragiles.

Dans des domaines encore plus théoriques, comme en ce qui concerne la « réalité » des multivers, ces preuves semblent actuellement hors de portée . Peut-on alors parler en ce cas de connaissances scientifiques, et donc de croyance possible en la validité de ces connaissances? Oui, parce ce faisant on refuse d'emblée toutes les croyances de type mythologique qui depuis l'aube de la pensée ont proliféré sur ces thèmes, croyances que la totalité des religions aujourd'hui encore se refusent à mettre en cause. Cependant, arrivés à ce niveau de réflexion, la plupart des scientifiques spécialistes de ces disciplines font valoir que le cerveau humain, du moins en son état actuel de développement et compte tenu des technologies instrumentales ou mathématiques disponibles, peut sans fausse honte avouer son ignorance sans pour autant faire appel aux religions pour apporter des réponses.

Ce que nous venons de rappeler en quelques lignes fait partie des bases de ce que l'on appelle l'esprit scientifique, s'étant répandu en Europe à partir de l'âge dit des Lumières. Cependant il est loin d'être partagé par l'écrasante majorité des populations. Non seulement celles-ci adoptent des croyances pseudo-scientifiques sans aucune base expérimentale, comme celle très répandue aux Etats-Unis, réputés pourtant par le nombre et la qualité de ses chercheurs, selon laquelle la vie ne peut pas avoir plus de 5.000 d'âge. Bien plus graves cependant, à la fois par leur universalité et les guerres qu'elles provoquent chez les croyants, sont les multiples religions et les diverses superstitions qui, de tous temps, ont empêché ou retardé l'apparition de la rationalité, conduisant le plus souvent, comme le montre avec de nombreux exemples le livre de Jean-Claude Carrière, le monde au chaos. Précisons cependant un point. L'auteur fait tout de même une différence entre croyance et foi "parce que quelqu'un peut ne pas avoir la foi, être athée et croire en l'astrologie ou à la numérologie".

La guerre sainte ou djihad.

Le livre, s'il se bornait à cela, n'aurait rien de particulièrement original. Mais du fait de l'actualité, l'auteur insiste sur les aspects les plus contemporains de l'incarnation des croyances religieuses dans des sociétés et des individus de plus en plus odieusement violents. Il cite l'honnête commerçant exerçant dans le souk d'une ville sunnite qui n'hésite pas à affirmer qu'il tuerait sans hésiter un voisin ayant le tort d'être chiite. De même, comment ne pas prendre au sérieux les affirmations d'un certain nombre d'imams et de militants du djihad, qui reprennent une vieille affirmation musulmane, selon laquelle le bon croyant doit avoir pour premier devoir de décapiter le « mécréant », c'est-à-dire celui qui ne croit ni en Allah ni au Coran. Il ne s'agit pas de propos théoriques, comme le montre l'accession du djihadisme dit terroriste, y compris en Europe. Désormais les actes terroristes sans motivation autre que relevant de la psychologie criminelle, seront de moins en moins nombreux. Ils se feront de plus en plus au nom des religions et en seront l'expression la plus violente.

Cette constatation ne devrait pas décourager, dans nos sociétés héritées des Lumières, les chercheurs, les hommes politiques et les citoyens de rechercher les causes neurologiques, psychanalytiques, familiales, sociétales, pour lesquelles un individu passe à l'acte terroriste. Mais prétendre y voir des motivations analogues à celles par lesquelles un mari assassine sa femme, par exemple, ne permettrait pas d'étudier plus en profondeur le phénomène de la croyance et ses côtés noirs.

Selon les termes que Jean-Claude Carrière emploie lui-même, et que nous ne pouvons que reprendre, « La croyance, cette certitude sans preuve, pouvons-nous l'approcher, la connaître ? Qu'est-elle exactement ? Une rébellion individuelle, ou au contraire un ralliement à un groupe, à une secte ? Un réconfort ou une aberration ? Alors que nous pensions, depuis le siècle dit “des Lumières”, aller vers plus de clarté, plus de maîtrise sur le monde et sur nous-mêmes, nous voyons que la croyance a marché près de nous au même pas que la connaissance, et que l'obscurité nous accompagne toujours, avec son cortège de rage et de sang. Nous voyons qu'une vieille alliance, que nous espérions dissipée, s'est renouée entre la violence et la foi ».

Les bonnes âmes reprocheront à l'auteur de stigmatiser les seuls musulmans, oubliant les chrétiens, les hindouistes et autres croyants au passé ou au présent violent. Mais il est de fait que l'inquisition chrétienne et les guerres de religion en Europe relèvent d'un temps ancien clairement condamné, notamment en France, par la pratique laïque républicaine. Il pourrait certes renaitre à tous moments, mais les lois de la République ont été conçues pour s'y opposer. Quant aux terroristes hindous, sans être pour autant excusables, ils constituent une infime minorité.

La question du terrorisme musulman s'exprimant à travers la religion et se prétendant légitimée par le Coran, est infiniment plus inquiétante, du fait des moyens croissants dont disposent désormais les fanatiques, approvisionnés en armes et encouragements, non seulement par les Etats musulmans mais par les politiques aberrantes de l'Occident. Par ailleurs,il faut rappeler, comme nous l'avons fait par ailleurs, que la population en Afrique quadruplera de taille d'ici la fin du siècle et sera chassée vers l'Europe par les violences internes, le changement climatique et une pauvreté croissante. Or déjà très largement de confession musulmane, les africains seront de plus en plus imprégnés par un islam violent du type de celui de Boko Aram. Tous ne deviendront pas des djihadistes, mais ceux- ci seront en nombre suffisant pour détruire (en reprenant le terme très juste de Manuel Valls) la civilisation européenne.

La question que se pose Jean-Claude Carrière dans son livre sera donc de plus en plus d'actualité. Nous devrons tous choisir entre connaissance et croyance. Mais ceux qui continueront à se référer à la connaissance et à la rationalité scientifique, comme à l'athéisme, le feront à leurs risques et périls. Beaucoup auront, tôt ou tard et par la force des choses, la tête tranchée.

Partager cet article

22 juin 2015 1 22 /06 /juin /2015 10:30

L'étude que vient de publier une équipe de chercheurs de Stanford et d'autres universités non américaines (voir source ci-dessous) met en évidence l'extinction massive qui est en train de se produire au détriment des espèces terrestres. Elle menacera directement à terme la survie de l'espèce humaine. Ce sera la sixième extinction depuis l'apparition de la vie sur Terre il y a 4 milliards d'années. Les auteurs appellent à des mesures urgentes pour conserver les espèces les plus menacées, mais préviennent que les fenêtres d'opportunité pour agir se ferment très rapidement.

L'étude a été accueillie avec un certain scepticisme par les défenseurs du laissez-faire. Il s'agit, dit on, d'une nouvelle publication sur un sujet déjà largement commenté, qui n'apporte pas d'éléments particulièrement nouveaux. De plus, l'équipe comprend Paul Ehrlich, professeur des études de population en biologie ( Bing Professor of Population Studies in biology ) qui s'était fait fortement critiquer à la parution de son livre de 1981 Extinction: The Causes and Consequences of the Disappearance of Species. attribuant, entre autres causes, la disparition des espèces à la croissance démographique excessive des humains. A cette époque, critiquer la natalité était considéré comme attentatoire aux consignes des religions, et raciste parce que mettant en cause la fécondité incontrôlable des femmes dans les pays pauvres.

Aujourd'hui, comme nous l'avons montré dans un article récent, (Afrique 2050- 2100. La catastrophe démographique, 30 avril 2015) des études de population validées par l'ONU prévoient pour la fin du siècle une population africaine de 3 à 4 milliards d'hommes, dont nul ne voit encore la façon dont l'Afrique pourra s'accommoder, d'autant plus que le réchauffement climatique rendra ce continent très largement aride. Paul Ehrlich est aujourd'hui considéré comme beaucoup plus crédible qu'il y a 30 ans. De toutes façons l'étude évoquée ici est co-rédigée par un groupe de chercheurs internationaux aux compétences indiscutées dans leur domaine .

Voici venu le temps des morts-vivants

Publiée en libre-accès sur le site du journal Sciences Advances, elle montre que, même en prenant en compte les prévisions les moins pessimistes, les espèces disparaissent actuellement à une vitesse bien plus rapide que que celle des précédentes extinctions. « Si le rythme actuel se poursuit, il faudra à la vie complexe des millions d'années pour se rétablir, à supposer que les causes actuelles de l'extinction aient été supprimées », y est-il écrit.

En mettant l'accent sur les vertébrés, bien plus sensibles que les monocellulaires aux causes de disparition, les chercheurs se demandent s'il est bien exact que ce soient les activités humaines qui précipitent les pertes de diversité biologique actuellement observées. Leur conclusion est absolument positive, s'appuyant notamment sur la vitesse des disparitions, qui ne serait pas attribuable à des causes naturelles, telles que celles ayant provoqué les précédentes extinctions de masse.

Les types d'activité sont souvent dénoncées, mais ne sont pas suffisamment prises au sérieux, afin d'être efficacement combattues par des actions à l'échelle de la planète. Il s'agit des destructions de milieux naturels dues à l'agriculture, à l'exploitation forestière et à l'urbanisation. S'y ajoute l'introduction d'espèces extérieures invasives dans les milieux naturels, espèces très généralement destructrices. Les émissions de gaz carbonique en résultant accélèrent le réchauffement atmosphérique et l'acidification des océans. De plus, les activités industrielles multiplient la production de composés chimiques altérant voire détruisant la vie.

Selon des études réalisées par l'Union Internationale pour la Conservation de la Nature (http://www.iucn.org/ ) l'extinction menace 41% des amphibiens (espèces marines) et 26% des mammifères. Beaucoup de survivants de ces espèces sont actuellement des morts-vivants, selon le terme de Paul Ehrlich.

L'étude évoque cependant des espoirs pour le futur, si du moins des mesures internationales de grande ampleur sont décidées et convenablement mises en oeuvre, au profit des espèces survivantes, étant admis que celles aujourd'hui disparues ou quasi-disparues ne pourront pas être réintroduites.

Nous pensons pour notre part qu'il ne se produira rien de tel dans les prochaines décennies, malgré les efforts annoncés par certains gouvernements. La surpopulation dans les zones menacées, les compétitions économiques entre grands ensembles géopolitiques, les conflits tribaux et guerres en résultant, plus généralement l'incompétence écologique des décideurs comme les consignes des religions interdisant de toucher à l'ordre des choses, rendront toute action internationale illusoire. La récente encyclique papale sur la conservation de la Terre et de l'écologie a été à juste titre saluée comme un début de prise de conscience de la question au sein de l'Eglise catholique romaine, mais elle ne suffira pas à provoquer la révolution mondiale dans les esprits qui s'impose aujourd'hui.

Abstract of Accelerated modern human–induced species losses: Entering the sixth mass extinction

The oft-repeated claim that Earth’s biota is entering a sixth “mass extinction” depends on clearly demonstrating that current extinction rates are far above the “background” rates prevailing in the five previous mass extinctions. Earlier estimates of extinction rates have been criticized for using assumptions that might overestimate the severity of the extinction crisis. We assess, using extremely conservative assumptions, whether human activities are causing a mass extinction. First, we use a recent estimate of a background rate of 2 mammal extinctions per 10,000 species per 100 years (that is, 2 E/MSY), which is twice as high as widely used previous estimates. We then compare this rate with the current rate of mammal and vertebrate extinctions. The latter is conservatively low because listing a species as extinct requires meeting stringent criteria. Even under our assumptions, which would tend to minimize evidence of a starting mass extinction, the average rate of vertebrate species loss over the last century is up to 114 times higher than the background rate. Under the 2 E/MSY background rate, the number of species that have gone extinct in the last century would have taken, depending on the vertebrate taxon, between 500 and 11,400 years to disappear. These estimates reveal an exceptionally rapid loss of biodiversity over the last few centuries, indicating that a sixth mass extinction is already under way. Averting a dramatic decay of biodiversity and the subsequent loss of ecosystem services is still possible through intensified conservation efforts, but that window of opportunity is rapidly closing.

Source


* http://advances.sciencemag.org/content/1/5/e1400253

* Voir aussi http://news.stanford.edu/pr/2015/pr-mass-extinction-ehrlich-061915.html

Partager cet article

16 juin 2015 2 16 /06 /juin /2015 14:26


The Information: A History, a Theory, a Flood

Par James G
leick

Publié le 1er mars 2011 par Knopf Doubleday Publishing Group
527 pages

Commentaires par Jean-Paul Baquiast
13/06/2015

Traduction française (ci contre)

L'information, publiée par Vuibert, collection Cassini
parution prévue 16 octobre 2015



Tablette sumérienne
Vers - 3000 ans
.

Elle provient d'Ourouk Il s'agit de la première écriture de l'histoire humaine. Elle est faite de signes gravés avec la pointe d'un roseau sur des tablettes d'argile humides qui sont ensuite séchées au soleil ou cuites au four. Ces signes sont en forme de clous ou de coins d'où le qualificatif de cunéiforme donné à cette écriture (d'après le latin cuneus, qui signifie coin). Aujourd'hui, tout ceci est détruit impitoyablement par des islamistes pour qui l'histoire commence à Mahomet.


Biographie de l'auteur

Ancien journaliste et responsable de la rubrique science au New York Times, James Gleick est l'auteur de six livres, dont trois ont déjà été traduits en français : La théorie du chaos (Albin Michel, 1987), Le génial professeur Feynman (Odile Jacob, 1994), Isaac Newton: un destin fabuleux (Dunod, 2004).
James Gleick a obtenu pour L'information: une histoire, une théorie, un déluge le prix du livre scientifique 2012 de la Royal Society. Ses livres ont été traduits en vingt-cinq langues.

Vue générale

L'auteur commence en relatant la découverte du tam tam africain par les premiers explorateurs européens, qui se sont longtemps interrogés sur les significations complexes de percussions apparemment simples, et de leur rôle dans la construction des sociétés. A partir de cela, il évoque l'arrivée de l'écrit, du livre et des dictionnaires puis des transmissions à distance permises par le télégramme, le téléphone et aujourd'hui les technologies numériques. Il évoque à ce sujet des questions bien connues sur ce site, concernant les applications en pleine extension de ces technologies, et les enjeux sociétaux en découlant. Mais à chaque fois il le fait en apportant des précisions et des anecdotes rendant la lecture toujours intéressante.

Dans le suite de l'ouvrage, James Gleick en vient aux recherches menées depuis presque deux siècles
pour comprendre la nature essentiellement digitale de l'information, non seulement dans le monde dit macroscopique mais dans le monde quantique, avec le concept de q.bit. Il rappelle, souvent en fournissant des détails peu connus, les rôles qu'on eu à cet égard Claude Shannon, Charles Babbage, Ada Byron, Samuel Morse, Alan Turing, Stephen Hawking, Richard Dawkins et John Archibald Wheeler. Il montre comment ces auteurs, à commencer par le plus important d'entre eux, Claude Shannon et sa « Mathematical Theory of Communication », rejoint par les « Cybernetics » de Norbert Wiener,ont initialisé une véritable théorie et science de l'information. Leurs apports théoriques ont eu de d'innombtables applications technologiques, notamment dans la compression des données et les correections d'érreurs indispensables aux ordinateurs modernes.

Finalement James Gleick discute, en s'appuyant sur l'exemple de Wikipedia, le rôle de celui-ci et de ses homologues dans la construction d'une véritable Tour de Babel des connaissances, s'imposant aujourd'hui dans la plupart des sociétés, avec les enjeux en terme de pouvoirs, politiques et économiques, en découlant.

Introduction

On comprend généralement le terme d'information comme faisant référence à un grand nombre soit de « réalités en soi », soit de représentations censées exprimer ces réalités à travers le point de vue d'un observateur et des instruments qu'il utilise. Il convient d'abord de choisir entre ces deux approches, ce qui est particulièrement nécessaire en matière de physique fondamentale. L'univers comme le rappelle l'auteur est il basiquement constitué d'informations ou, plus précisément de bits quantique, selon l'hypothèse de Seth Lloyd. Qu'en est il au niveau de la physique macroscopique? Peut-on identifier des « informations » existant objectivement, en dehors de ceux qui les observent. Bien d'autres questions se posent, quasiment en termes épistémologiques.

La multiplicité des définitions et interprétations susceptibles d'être données au concept d'information pourrait décourager toute approche globale. Dans le langage courant, le terme d'information peut désigner des objets très différents. Par exemple les contenus de connaissance propres à tel ou tel concept (à quelles informations correspond le concept de primate), les supports matériels permettant la diffusion de ces contenus de connaissance (le livre, le téléphone, l'ordinateur), les supports biologiques permettant la mémorisation d'informations vitales dans les génomes de toutes les espèces, ou leur traduction sous formes d'associations neuronales dans les cerveaux des espèces dotées de tels organes. Aujourd'hui, le concept d'information ne peut être séparé de celui de société de l'information, basée sur la numérisation et les transferts électroniques intéressant les contenus de connaissance.

On peut cependant considérer qu'en accumulant les définitions et les représentations scientifiques en découlant, fussent-elles contradictoires, il est possible de faire un travail utile. On montre ainsi que les choses ne sont pas aussi simples que le langage courant ou le bon sens se l'imaginent. On peut le faire d'autant mieux si l'on adopte, comme le fait James Gleick dans son livre, une approche historique montrant comment sont nés les différents supports d'information et les réseaux permettant la circulation de celle-ci.

Dans cet esprit, James Gleick n'a pas hésité à multiplier les approches, en cherchant le plus possible à leur donner un fil conducteur. Si le livre, malgré ses 550 pages, n'est pas véritablement une thèse scientifique (au demeurant quasi impossible à réaliser) il s'agit d'un excellent travail. Il dépasse la vulgarisation à laquelle cependant excelle l'auteur, par le fait qu'il pose un grand nombre de questions qui mériteraient à elles seules de faire l'objet de thèses scientifiques plus développées.
Le monde physique est-il constitué d'informations, soit sous forme d'ondes/particules quantiques, soit sous formes de particules élémentaires, protons, neutrons, électrons? Que deviennent ces informations dans les trous noirs? Comment, une fois la vie apparue sur Terre, s'est-elle construite en élaborant des informations génétiques ou, chez les organismes dotés de systèmes nerveux, d'informations neuronales?

Très vite cependant, le livre aborde la question des langages, censés être apparu au cours de l'évolution des espèces supérieures, pour représenter les constantes du monde auxquelles se heurtent ces espèces et à propos desquelles il leur est devenu vital de communiquer. Il n'étudie que très superficiellement les langages animaux, mais il rappelle de nombreux points peu connus par ceux qui ne font pas profession de linguistes. Au delà des langages parlés puis des langages écrits, le livre consacre d'intéressants développements aux différentes méthodes permettant de diffuser ces contenus langagiers sur de longues distances. Il étudie ainsi le tam tam africain, bien perdu de vue aujourd'hui, en s'interrogeant sur la façon, sans doute initialement spontanée, par laquelle des modes de percussions apparemment voisins ont pu convoyer des messages d'une grande diversité 1)

Concernant le contenu du livre, il faut faire observer qu'il a été écrit avant 2011. Il vient d'être traduit en français, avec un retard peu excusable de 5 ans. Les propos de l'auteur seraient-ils différents aujourd'hui? Les connaissances sur l'information, la façon de l'aborder, ont quelque peu évolué depuis ces dates. Par la force des choses, le livre n'y fait pas allusion.

Concernant la présentation et l'analyse du livre, il existe d'excellents articles aujourd'hui, qu el'on trouve sans peine sur le web. Nous allons donc pour notre compte ici, sans résumer le contenu du livre, cepour quoi l'on trouve d'excellents articles 2)

Nous allons pour notre part ici évoquer quelques points faisant l'objet de recherches en cours, ou méritant selon nous de faire l'objet de recherche, de façon à compléter l'analyse de James Gleick.

Information ou communication?

Des analyses de type biologique, portant sur l'ensemble des espèces vivantes, seraient utiles pour distinguer la société de l'information moderne des échanges de messages au sein des cellules vivantes, ou au sein des organismes simples ou complexes du monde des organismes bactériens ou multicellulaires, végétaux et animaux. Ces études comparatives peuvent montrer que ce que nous considérons, depuis l'apparition des informations et des réseaux d'échanges d'informations dans les sociétés humaines, comme des phénomènes récents et spécifiques à l'homme, sont universellement répandues. Elles permettent par exemple d'identifier en quoi les réseaux d'informations qui sont à la base des formes les plus simples de société de l'information biologiques, les colonies bactériennes, se retrouvent dans nos actuelles sociétés de l'information.

En contrepartie, elles permettent de faire apparaître et le cas échéant d'expliciter les complexités apparues dans les sociétés humaines. Il ne s'agira en aucun cas, s'il est bien fait, d'un travail n'intéressant qu'une science théorique. Les applications en seront nombreuses. Par exemple, il sera vain d'espérer par des législations adéquates réguler des comportements profondément déterminés par des organisations génétiques ou cérébrales. Pour être efficaces, à supposer qu'elles puissent l'être, ces réglementations devront remonter aux sources. Vaste programme, mais de plus en plus indispensable.

Informations et outils. L'anthropotechnique.

Nous avons précédemment signalé que les sociétés humaines se sont co-développées avec les outils matériels que par ailleurs elles avaient été capables d'identifier et de perfectionner. Nous parlons de systèmes anthropotechniques. Ceci s'applique en priorité aux outils artificiels complétant les divers organes moteurs et sensoriels dont les hominiens se sont trouvés dotés par l'évolution. L'exemple le plus connu est celui de l'outil de pierre, qu'auraient commencé à maîtriser les australopithèques, vers – 3 à -2,5 millions d'années. Mais comme le remarque d'ailleurs James Gleick, les outils permettant d'identifier et décompter les objets du monde, de les doter de symboles ou noms communément admis et facilement transmissibles, ont joué un rôle essentiel. On peut signaler à cet égard les premières techniques de représentations picturales, dont les grottes Chauvet et de Lascaux montrent d'importants vestiges, mais qui étaient nécessairement bien antérieures.

Ces symboles, dont l'essentiel ont disparu, ont joué on le sait un rôle essentiel dans l'évolution et la mise en cohésion des premières sociétés humaines. Or ils ont été associés à des techniques permettant de graver des ossements ou des pierres et donc de les transmettre. Une technique sans doute découverte par hasard, consistant à obtenir des silhouettes de mains par projection de poudres colorantes, a du sans doute, bien avant Chauvet, transformer les sociétés humaines en leur montrant qu'elles pouvaient concevoir, fixer et transmettre des images d'animaux sauvages de plus en plus fidèles aux originaux. C'est sans doute une des raisons pour lesquelles on retrouve très généralement de telles empreintes de mains sur les murs des grottes. Avant l'invention de ces poudres, les empreintes de mains que les hommes devaient fabriquer en permanence, par exemple sur du sable, ne se sont jamais conservées, même d'un jour sur l'autre. Si l'on demande à un enfant n'ayant jamais reçu la moindre formation au dessin de tracer des images d'animaux, ou même simplement de sa propre main, il n'y arrivera pas.

On peut développer presque sans limites le concept de systèmes anthropotechniques, à propos des symbioses que, dans la société numérique actuelle, se sont établies entre les différentes technologies et tout ou partie de leurs utilisateurs, corps, cerveaux et comportement. Il est ainsi possible de montrer aujourd'hui les différences entre les structures neuronales d'un utilisateur de téléphone et celles d'un utilisateur de micro-ordinateur connecté à un réseau. Un article très récent d'une équipe de chercheurs de Carnegie Mellon montre ainsi comment un concept nouvellement acquis, autrement dit, d'une information, s'inscrit dans le cerveau, de façon spécifique aux informations concernées 3) Nous pourrons y revenir.

L'intérêt du concept de système anthropotechnique et de ses applications en matière d'information consiste, là encore, à mettre en évidence les limites d'une action volontariste, par exemple sous forme législative, visant à règlementer les utilisations de telle ou telle machine à traiter l'information sans proposer en parallèle de modifier les corps et cerveaux de leurs utilisateurs. Inutile de dire que cette dernière tâche sera beaucoup plus ardue que la précédente.

Parts respectives de la culture et de la nature dans l'émergence des informations et de leurs usages.

Gleick rappelle la thèse de Chomsky selon laquelle les humains (comme d'ailleurs les animaux à leur échelle) sont dotés d'une aptitude héréditaire à la parole, qui permet au nouveau-né d'apprendre sans difficultés les langages de ses parents. S'y oppose la thèse de l'ardoise blanche selon laquelle c'est le milieu social, autrement dit culturel, qui apprend à l'enfant tout ce qu'il doit savoir en matière de langage, tant en ce qui concerne la réception que l'émission. Autrement dit, un enfant élevé dans un isolement complet n'apprendra jamais à parler. Il est difficile, aujourd'hui encore, de trancher par l'expérience entre ces deux thèses, pour des raisons pratiques évidentes. Cependant les observations disponibles, par exemple intéressant les communautés de sourd-muets, qui inventent leurs propres langages, montre que les humains ont bien de plus de facilité pour ce faire que des primates plongés dans une société humaine afin qu'ils apprennent à communiquer.

Il n'a pas été par ailleurs montré que les jeunes descendants d'utilisateurs intensive de l'Internet s'adaptent plus facilement à leur usage que ceux dont les parents n'ont jamais connu les technologies numériques. Mais les analyses génétiques et comportementales en ce domaine n'ont peut-être pas été poussées assez loin. On peut penser que globalement les descendants de générations ayant une pratique numérique poussée seront, par acquis héréditaires, plus aptes à les maîtriser en profondeur que ceux provenant d'une société restée à l'écart. Dans ce cas, la nature rejoindra la culture.

Une autre façon de poser la question consiste à se demander comment, dans le passé, sont apparues les premières informations verbales ou écrites et comment elles se sont transmises. A l'origine, ces aptitudes ont du émerger spontanément, puisqu'il n'existait pas d'écoles pour les enseigner. Mais en quoi les premiers pionniers ont-ils différé de leurs homologues restant informativement inculturés, autrement dit limités à une pratique proche de celle des langages animaux. Etaient-ils nés d'emblée avec des cerveaux plus curieux et plus aptes à inventer de nouvelles pratiques? La question rejoint celle évoquée plus haut de l'invention des premiers outils chez les australopithèques. Les hypothèses les plus convaincantes montreraient que précisément les cerveaux et cultures de ces premiers utilisateurs d'outils les ont rendus plus aptes que d'autres à utiliser sans qu'ils s'en rendent compte certains sons et certains gestes comme éléments permettant de mémoriser et transmettre des informations. Aujourd'hui, on pourrait penser que, sans que nous en ayions nous mêmes conscience, nous nous insérerions spontanément dans des systèmes d'information dont nous ne mesurerions pas nous-mêmes toute la portée.

Au plan de la préhistoire anthropologique, il est intéressant d'imaginer des scenarios permettant de comprendre comment à partir de bases génétiques très proches de celles des grands singes, les hominiens, suivis par les hommes, ont construit des outils, des images et des mots. Un article du NewScientist, 6 juin 20I5, Back to the Wild, en propose une simulation. L'auteur, Christopher Kemp, imagine comment la complexité des informations propre au monde numérique d'aujourd'hui, a pu naitre progressivement des premiers outils et des premières constructions sociales en découlant. On y retrouve un scénario à la source d'un film récent: 100 babies. No adults. One island. What would happen if humans grew up without culture

Les guerres pour le cerveau global

Nous consacrons sur ce site de nombreuses analyses critiques sur le concept de « cerveau global » (global brain) dont notamment Google, à l'initiative de Ray Kurzweil se fait le champion. Ils en annonce l'établisement sur Terre sans quelques décennies. Ce cerveau sera composé d'éléments technologiques et neuronaux en réseaux. Il générera et utilisera des flots d'informations permettant de construire une image globale du monde bien plus précises et efficace que celles proposées par les sciences et technologies actuelles. Nous en seront des composants parmi d'autres, aussi passifs-actifs que peut l'être un neurone individuel dans le cortex cérébral d'aujourd'hui.

On sait en 2015 ce que James Gleick ne faisait que soupçonner en écrivant son livre, les enjeux de pouvoirs qui sont derrière la construction et l'exploitation des informations circulant dans le cerveau global: pouvoirs économiques et surtout politiques, au profit des grands empires qui se sont instaurés au sein de ce monde nouveau, Il s'agit principalement pour le moment de l'empire américain, sous ses composantes d'informations économiques, politiques, militaires et scientifiques. Mais d'autres empires concurrents vont certainement apparaître. En complément de guerres économiques et éventuellement militaires, ils mèneront d'intenses guerres d'informations. .
.

Notes

1) Cf le poème: « Le tam tam, coeur de la forêt, battait sourd et implacable »

2) * Voir Around. Références diverses http://around.com/the-information/

* Voir The Guardian http://www.theguardian.com/science/2012/nov/22/the-information-james-gleick-review

* Voir New York Times. Books review http://www.nytimes.com/2011/03/20/books/review/book-review-the-information-by-james-gleick.html?_r=0

3) Voir http://onlinelibrary.wiley.com/doi/10.1002/hbm.22842/abstract

Partager cet article

14 mai 2015 4 14 /05 /mai /2015 20:24

The Vital Question: Why is Life the Way it Is?

Profile books Avril 2015

Commentaires

Jean-Paul Baquiast
04/05/2015


Notre préliminaire Cette recension reprend et développe nos précédents articles concernant les recherches de Nick Lane:

* L'invention des mitochondries

* Aux origines des eucaryotes... et de la vie multicellulaire

* Life ascending

Sur l'auteur

Nick Lane est "Reader in Evolutionary Biochemistry, Department of Genetics, Evolution and Environment, University College London"

* Présentation du livre

* About Nick Lane

* University College London


Nous avons précédemment présenté et commenté les travaux selon nous extrêmement éclairants du biochimiste britannique Nick Lane (Cf notamment notre article sur son ouvrage séminal Life Ascending, 2010 ) .Depuis la parution de cet ouvrage, Nick Lane a poursuivi ses recherches sur les origines de la vie. Il vient de les présenter dans un nouvel ouvrage The Vital Question: Why is Life the Way it Is? . Il y propose une réponse à la question toujours en suspens aujourd'hui, concernant les origines de la vie sur Terre, sous la forme que nous lui connaissons.

Disons d'emblée que cet ouvrage nous paraît absolument remarquable. D'une part l'auteur y présente une synthèse des très nombreux travaux, pourtant ignorés du grand public, qui ont traité cette question et qui continuent aujourd'hui de la discuter. D'autre part, il y ajoute les nombreuses contributions personnelles que ses travaux de chercheur, en relation avec des équipes très performantes, lui permettent de faire connaitre. Il faut saluer à cette occasion le rôle considérable joué en ce domaine comme dans de beaucoup d'autres, par l'University College de Londres

A ces contributions scientifiques, Nick L'ane n'hésite pas chaque fois que possible à mentionner les réflexions philosophiques suscitées en permanence par des sujets aussi vastes. Mais il évite ce faisant de faire appel à des considérations d'ordre spiritualiste du type de celles qui abondent ailleurs mais qui n'ont aucun caractère scientifiques. Enfin, le livre est présenté dans un langage véritablement très agréable à lire le rendant différent des articles généralement arides publiés par les revues spécialisées.

Précisions cependant que Nick Lane ne fait aucune concession à la facilité. Il n'hésite pas donner les explications techniques qui s'imposent en appui de ses propos. Par ailleurs, il joint à l'ouvrage proprement dit, outre des notes de bas de page et schémas nombreux, un glossaire et une bibliographie très riches, indispensables à une meilleure compréhension du sujet. Bien évidemment tout ceci n'empêche pas que le livre soit assez difficile. Les non-spécialistes devront s'ils veulent en saisir toute la portée, le lire avec un crayon (ou ce qui en tient lieu aujourd'hui) à la main. Enfin, comme à notre connaissance n'existent pas de traductions, une bonne maîtrise de l'anglais est nécessaire. Mais il en est ainsi aujourd'hui de tout travail scientifique.

La vie, un problème en voie d'être résolu

Le point essentiel, s'imposant à la lecture du livre, est que Nick Lane, comme les scientifiques ayant contribué à construire ou soutenant ses hypothèses, ne se posent plus guère de questions sur la vie. Certes, en science, il n'existe pas de certitudes absolues, mais de très nombreuses réponses sont considérées comme suffisamment solides, tant au plan théorique qu'expérimental, pour ne plus mériter d'être discutées. Il est possible au contraire de s'appuyer sur elles pour étendre le champ des recherches.

Or, aussi surprenant que cela puisse paraître aux personnes non informées, il en est ainsi désormais de la question que pose le livre - pour quelles raisons la vie est-elle devenue ce qu'elle nous paraît être ? Répondre à cette question permet évidemment d'avancer dans la réponse à la grande question sous-jacente, qui tourmente les penseurs depuis l'origine de la pensée – qu'est ce que la vie? En quoi la matière vivante et pensante se distingue-t-elle de la matière inerte?

Sur ces deux points le livre de Nick Lane formule des réponses impressionnantes par leur cohérence, réponses cependant qui sont encore très ignorées, tant par d'autres chercheurs que par les philosophes et le public, fut-il « éclairé ». On peut regrouper ces réponses en deux grandes catégories. Les premières démontrent comment la vie sous ses formes relativement simples, dites procaryotes (cellules sans noyaux), est apparue et continue à se développer. Il s'agit aujourd'hui des bactéries et des archéa, auxquelles selon nous on pourrait ajouter les virus, bien que ceux-ci ne puissent exister en dehors des précédentes.

Les procaryotes

Leur apparition serait liée à un phénomène très présent, aujourd'hui encore, dans les fonds océaniques. Il s'agit des évents sous-marins alcalins hydrothermiques, très nombreux près de la dorsale sous-marine mid-atlantique. Le terme désigne des remontées d'eau de mer infiltrée par des failles à grande profondeur, eau venue à proximité de magmas et revenant chargées de composant minéraux. Ces eaux devenues alcalines donnent naissance au contact de l'eau de mer acide (acidité résultant notamment de la présence de CO2) à des concrétions très cloisonnées pouvant permettre aux précurseurs de la vie de se développer, riches en fer et en soufre.Le livre expose en détail les processus à base d'énergie électrique impliqués. L'énergie électrique, dite aussi gradient de protons, résulte des échanges entre l'eau basique et l'eau acide,se faisant à travers les membranes des concrétions.

Pour l'auteur les formes procaryotes relativement simples, existant sur Terre dans de nombreux milieux très différents, pourraient être présentes sous des formes relativement voisines, dans les milliards de planètes, astéroïdes ou comètes dites habitables aujourd'hui supposées exister dans la galaxie et le reste de l'univers. Le propre de ces planètes habitables, aujourd'hui confirmé par de nombreuses observations, est de disposer d'eau liquide et de gaz carbonique (CO2) indispensables à l'apparition de la vie procaryote, tout en bénéficiant de l'énergie lumineuse dispensée par leur étoile.

Les eucaryotes

Mais la seconde catégorie de réponses proposées par le livre concerne des questions bien plus difficiles à résoudre. Il s'agit des raisons pour lesquelles les premières cellules simples, sans noyaux, dites procaryotes, se sont transformées d'abord en cellules à noyau et membranes, dites eucaryotes, et comment celles-ci ont ensuite donné naissance aux organismes multicellulaires dont nous sommes nous mêmes des descendants.

Les premiers ouvrages de l'auteur, notamment l'impressionnant Life ascending, abordaient très largement la question des procaryotes, mais restaient bien plus évasifs concernant la question des eucaryotes, ou cellules à noyau, s'étant dès leur apparition massivement regroupées en organismes multicellulaires. Life ascending se bornait à mentionner différentes réponses possibles, sans cependant choisir entre elles.

Or dans son dernier ouvrage, The Vital Question, Nick Lane développe une hypothèse qui vient en contradiction avec celles très généralement reçues concernant les origines des eucaryotes. D'après ces dernières les premières cellules vivantes, bactéries ou archéa, seraient restées pendant presque 4 milliards d'années sans évoluer sensiblement, jusqu'à ce que l'augmentation du taux d'oxygène dans l'atmosphère, résultant notamment de l'activité des bactéries photosynthétiques, ait permis à certaines de ces cellules de disposer de davantage d'énergie. Elles seraient alors devenues, selon des voies différentes, plus grandes et plus complexes, donnant naissance aux espèces végétales et animales que nous connaissons.

Dans cette hypothèse, ce changement vers la complexité, résultant de la compétition darwinienne, se serait produit plusieurs fois, sans nécessairement de liens entre les processus adoptés par chacune des espèces en ayant résulté. Il pourrait éventuellement se reproduire sur d'autres planètes, dotées de conditions analogues.

Or Nick Lane refuse cette hypothèse. Il en propose une autre, bien plus surprenante. Pendant des milliards d'années, selon lui, les cellules simples le seraient restées sans changements particuliers et demeurent encore aujourd'hui très voisines de leurs formes originales. Par contre, une fois et une seule, il se trouva une cellule simple pour s'implanter à l'intérieur d'une autre, lui apportant son énergie, mais renonçant de ce fait à vivre de façon indépendante. D'une façon différente, mais ne modifiant pas la solution proposée, on pourrait dire qu'une cellule simple s'est incorporée sous forme d'endosymbion, une autre cellule simple qui s'est ensuite spécialisée au service de la cellule hôte, laquelle en a été profondément transformée.

On reconnaît dans cette description les organites intracellulaires bio-énergétiques existant à l'intérieur des cellules complexes et leur apportant l'énergie nécessaire à leur complexification. Il s'agit des mitochondries, que l'on considère généralement comme d'anciennes cellules autonomes ayant fait le choix de vivre en symbiose avec d'autres qui leur procureront l'abri de leurs membranes. Les chloroplastes jouent le même rôle dans les cellules végétales chlorophylliennes.

La cellule hôte, ainsi équipée, a pu en se dotant d'un plus grand nombre de mitochondries (ou de chloroplastes), obtenir l'énergie nécessaire à une plus grande mobilité et à une plus grande complexification – y compris l'énergie nécessaire pour se diversifier et se spécialiser à l'intérieur d'un organisme multicellulaire. Mais vivre ensemble n'était pas facile, pas plus pour les mitochondries que pour les cellules hôtes. Celles ci pour survivre durent adopter des comportements complexes tels que la production de gènes spécifiques àchacune d'elles au sein de molécules d'ADN, puis pour certaines la reproduction sexuelle permettant une plus grande diversification dans la production des gènes.

Ces hypothèses ne sont évidemment pas dues au seul Dick Lane. Mais celui-ci a pu, par un travail considérable, que résume le livre, en approfondir tous les aspects, ainsi que leurs conséquences. Aujourd'hui, selon lui, cette symbiose se poursuit, continuant à nous aider à survivre. Nous sommes ce que font de nous nos mitochondries.

Mais concernant les hypothèses relatives à la vie extra terrestre, selon l'auteur, la probabilité que se produisent de telles endosymbioses sur d'autres planètes reste très faible, comme elle l'est d'ailleurs restée sur Terre. Certes, elle n'est pas à exclure, mais les chances que nous aurions de rencontrer lors de nos explorations à la recherche de la vie extraterrestre des espèces complexes multicellulaires semblables à nous seraient extrêmement rares. Ceci ne veut évidemment pas dire que, dans l'immensité du cosmos, elles ne puissent exister. Mais nous n'en saurons jamais rien.

Le rôle de l'énergie mitochondriale

Les preuves de l'hypothèse de l'endosymbiont ont été tirées depuis une vingtaine d'années des travaus de la géologie, de la biochimie, de la biologie moléculaire et de la génomiques. L'auteur les mentionnent toutes, avec de nombreux détails. Mais pour quelles raisons les premières cellules se sont-elles répliquées et ont évolué? On mettait en cause précédemment l'ADN cellulaire présent au sein du noyau, les mutations et le phénomène dit du transfert latéral de gènes (d'une espèce à l'autre). Pour Nick Lane, ces explications passent à côté de ce phénomène essentiel qu'est la production d'énergie au sein des cellules, entrainant la consommation de nutriments et l'expulsion de déchets. Sans un apport constant d'énergie, l'ADN est impuissant. Or ce sont les mitochondries, disposant de leurs propres ADN, et présentes en grand nombre dans le milieu cellulaire, qui produisent les processus alimentant en énergie la cellule toute entière. L'auteur détaille avec beaucoup de précision (pouvant lasser un lecteur pressé), les mécanismes en cause.

Les ADN mitochondriaaux expliqueraient de la même façon la mort des cellules et leur remplacements par des cellules plus jeunes et plus adaptées (apoptose) et finalementg le vieillissement et la mort des organismes multicellulaires. L'ADN mitochondial provenant des mères est seul transmis lors de la reproduction. Il est produit une fois et une seule, au contraire du sperme masculin. Les nombreuse smutations affectant ce dernier peuvent comporter un risque pour la survie de l'espèce.

Conclusion

Nous n'entreprendrons pas ici de résumer les divers mécanismes impliquant, à travers les mitochondries et les chloroplastes, la production d'énergie nécessaire à la vie et au développement des cellules eucaryotes. Certaines questions plus générales doivent être évoquées!

Limitons nous le moment à la plus importante, quitte à retrouver les autres dans un article ultérieur. Cette question est la suivante: pourquoi l'endosymbiose décrite par le livre ne s'est elle produite qu'une seule fois sur Terre, comme en témoignent les similitudes entre organismes eucaryotes, ayant persisté sans modifications depuis leur apparition et leur généralisation il y a quelques 600 millions d'années? Parce qu'il s'agit d'un phénomène si exceptionnel qu'il n'a pas pu se reproduire depuis. De plus, à supposer qu'il se soit produit, les nouveaux spécimens ainsi apparus auraient été impitoyablement éliminés par la concurrence. Le livre cite cependant une observation japonaise très récente et non confirmée concernant la présence d'une cellule vivant en milieu sous marin et semblant conjuguer des traits de procaryotes et des traits d'eucaryotes.

Comme quoi la question n'est pas totalement close. Soyons assurés que Nick Lane y reviendra dans la suite de ses recherches.

Partager cet article

6 mai 2015 3 06 /05 /mai /2015 20:19

Alain Cardon, professeur des Universités en Informatique

Mai 2015

Les recherches actuelles d'Alain Cardon s'inscrivent dans un mouvement, encore peu connu, permettant de faire des synthèses entre l'évolution récente des diverses sciences physiques et biologiques, évolution dont notre site s'est fait l'écho depuis sa création. Nul n'avait jusqu'à une époque
très récente, entrepris d'exprimer ces synthèses d'une façon aussi explicite que celle présentée dans cet article.

NB: L'image (source CNRS) n'a pas de rapport obligé avec le contenu de l'article.
Automates Intelligents. 06/05/2015


On peut chercher à préciser la raison de l’existence du vivant organisé formé avec des composants physiques élémentaires en adoptant une approche résolument systémique. Il faut considérer le vivant comme une organisation générale, unifiée sur la Terre comme une très vaste organisation complexe et qui suit une tendance à se déployer en étant évolutive. Cette tendance qui organise le vivant en le faisant évoluer ne peut pas venir du seul hasard, ce qui est trop improbable, mais de l’exercice d’une force tendancielle qui s’exerce systématiquement, une force informationnelle générale s’exerçant sur la matière pour la faire se conformer en organisations et en organismes, des organismes avec membranes qui se multiplient et évoluent pour déployer continuellement la complexité du vivant quand le contexte physique planétaire est favorable.

Le vivant pluricellulaire a, sur la Terre, six-cent-cinquante millions d’années et s’est développé à partir d’une organisation de monocellulaires avec membranes qui avait, elle, plus de trois milliards d’années. Ce vivant qui s’est déployé partout sur la Terre est un système global composé de multiples systèmes en interactions, système déployé sous de multiples formes très organisées que sont les espèces et leurs représentants. Il faut appréhender ce vivant comme un méta-organisme composé d’organisations d’organismes, comme un système unifié fait de multiples systèmes. Le vivant a une origine, une évolution et il doit avoir une raison à pouvoir se déployer sous cette forme extraordinairement variée et si cohérente. Il a une réalité de méta-organisme qui se déploie à une échelle de temps très supérieure à celle de tous les organismes qui le composent, à l’échelle temporelle de la planète. Ce vivant, qui doit être considéré comme une organisation globale unifiée, a donc une origine, un déploiement et une existence propre réifiée par l’organisation des multiples organismes qu’il a fabriqué et qu’il fait se multiplier.

Je pose l’hypothèse que tous ces organismes qui composent le vivant sont soumis à une communication informationnelle incitatrice, information émise sur l’étendue de ce vivant global pour faire déployer ses organismes dans l’espace et le temps de la planète qu’il occupe. Ce type d’information directionnelle, qui a fait être la vie et son évolution sur Terre, s’exerce sur les organismes vivants et se représente comme une force incitatrice, une force organisationnelle s’exerçant à certains moments dans la reproduction de ces organismes pour faire se réaliser une évolution systématique. C’est une force incitatrice qui tend à ce que des modifications organisationnelles se réalisent dans des directions opportunes et pas de manière totalement aléatoire. On peut concevoir que cette force à fait que le vivant a évolué systématiquement en s’organisant pour investir la mer, l’air et la terre, c’est-à-dire tout l’espace disponible lorsque celui-ci a été rendu viable il y a six-cent-cinquante millions d’années par la fonte de la couche de glace qui enserrait la Terre, ce qui a produit massivement de l’oxygène.

Je pose que cette force est émise à un niveau qui se situe sous l’échelle du réel physique de ces organismes, à un niveau substrat du monde matériel et qui incite à son organisation. On doit, là, être précis. Un méta-organisme qui se forme et se reconforme sans cesse en incitant le déploiement de tous les organismes dans toutes les directions viables possibles pour investir l’espace entier d’une planète, est un méta-organisme obéissant à une force organisationnelle qui conduit la matière du réel physique à s’utiliser de façon maximale et pour se déployer sur lui-même en se consommant. C’est une force incitatrice qui est dans le substrat de la matérialité du réel observable, qui incite aux développements, aux déploiements, qui part sans cesse de l’état courant pour l’amplifier dans l’organisation des possibles. Ce n’est absolument pas une force avec un but explicite, une finalité, mais c’est une force opportuniste qui s’applique continûment et qui incite systématiquement le réel au développement de déploiements organisés. Ainsi, les espèces en ont créées d’autres par opportunité, lorsque le contexte des organismes vivants locaux permettait cette extension dans les reproductions, et elles se sont aussi développées sur elles-mêmes en développant leurs organes et leurs organisations. Cela donne aujourd’hui un vivant avec des espèces très belles, très harmonieuses et équilibrées entre elles pour vivre leur petite vie.

Au niveau quantique

Je vais aller plus loin en posant l’hypothèse que cette force s’exerce au niveau substrat de la matière dans tout l’univers, au niveau quantique donc, et qu’elle donne les indications des comportements possibles selon leurs lois physiques à toutes les particules, pour qu’elles passent à l’état organisationnel du réel que nous observons, qu’elle donne l’information comportementale possible à tout ce qui peut se structurer et s’organiser. Je pose donc l’hypothèse d’un substrat informationnel sous le réel observable, hypothèse qui est aujourd’hui posée par certains grands scientifiques [Seth Lloyd, Lee Smolin]. Ce substrat pourrait être constitué de processus strictement informationnels, formant une nappe partout dense, et indiquant les lois comportementales aux particules quantiques selon leurs états, aux atomes, aux molécules, aux amas matériels, aux organismes, au vivant.

Tous ces éléments matériels sont soumis aux effets de cette information conductrice qui peut être, à un certain niveau, modificatrice, ce qui sera le cas du domaine du vivant. Je pose donc l’hypothèse constructiviste et systémique que tout notre univers matériel repose sur l’activité continue et partout dense d’un certain type de flux informationnel organisateur, qui réalise son existence et son expansion. Ce flux informationnel serait produit par une nappe informationnelle, avec une topologie particulière, qui est le substrat du réel physique, qui permet à celui-ci de se comporter en l’utilisant. Ce flux serait la force organisationnelle indicatrice du comportement physique des éléments de l’univers à tous ses niveaux. Cette force est posée comme unidirectionnelle, elle s’exerce du substrat informationnel vers les éléments physiques qu’elle incite à se comporter et en aucun cas elle ne peut aller des éléments physiques vers ce substrat informationnel. C’est la tendance générale à déployer sous forme organisée le réel de l’univers dans l’espace et le temps. Mais ce n’est qu’une tendance disponible et incitatrice et les autres lois de la physique, comme la gravité, opèrent systématiquement.

Je pose donc l’hypothèse que le vivant organisé sur la Terre est soumis à cette force organisationnelle indicatrice, qui est partout disponible, qui a incité à sa création et à son développement, force qui s’est exercée et qui s’exerce toujours comme la force incitatrice qui fait être ce vivant comme un système global ayant une autonomie comportementale, qui est constitué de multiples organismes qui s’organisent sans cesse entre eux. Cette force opère à une échelle informationnelle qui n’est pas directement conductrice au niveau des organismes, mais qui est bien incitatrice.

Le substrat de l’univers

L’univers est une couche déployée formant un espace spatio-temporel pour la matière sur un substrat purement informationnel partout dense constitué de processus informationnels. L’univers est donc un espace à 5 dimensions : trois d’espace, une de temps et une d’information. Ce substrat informationnel exerce son action à toutes les échelles, il conduit directement le comportement des particules isolées, il incite les éléments proches à se structurer, il incite les éléments structurés à s’organiser pour aller plus loin par l’autonomie comportementale, jusqu’au vivant organisé.

La force organisationnelle

C’est une force exercée par le substrat informationnel sur toute la matière de l’univers, sur chaque particule quantique pour qu’elle se comporte selon les lois de la physique, sur chaque atome pour qu’il se structure avec d’autres pour former les molécules et sur chaque élément matériel structuré pour qu’il s’organise avec d’autres, permettant ainsi de conduire la matière structurée à former continuellement des organisations, jusqu’à la vie et son évolution globalement organisée partout où c’est possible. Cette force s’exerce sur les organisations matérielles de trois façons : elle peut inciter à poursuivre leur organisation dans la continuité, elle peut inciter leur organisation à réaliser des bifurcations, elle peut tendre à laisser les choix d’organisation se faire par la matière organisée elle-même, en suivant les lois de la physique.

L’hypothèse de l’existence de cette force fondamentale permet donc de donner une raison scientifique à l’existence de notre univers observable et tend à contrebalancer la théorie usuelle de l’évolution du vivant par un pur hasard ou une raison immanente. La force organisationnelle opère dans l’univers à deux niveaux. D’une part, elle incite la matière à s’organiser selon les états de ses éléments pour y former des organismes dans l’espace physique de toute planète viable, en créant de nouvelles organisations vivantes, en les diversifiant pour submerger tout l’espace physique disponible où ces organismes partagent la même ligne d’univers (voir en relativité générale la définition d’une ligne d’univers). D’autre part, elle s’exerce comme une force informationnelle sur les constituants élémentaires, au niveau quantique pour en préciser les lois d’actions et la cohérence ainsi que sur les atomes et molécules.

C’est bien ce que précisait M. Lachièze-Ray sur l’existence d’un vide informationnel [Entre rien et quelque chose : les paradoxes du vide, article de Lachièze-Ray p. 134-144, in Le vide, univers du tout et du rien, Revue de l’Université de Bruxelles, 1997]. Nous préciserons dans un autre article les caractères de cette force qui pose l’existence d’un système générateur d’informations au-dessous du niveau des particules quantiques, qui explique l’intrication, qui fait exister toutes les particules selon leurs lois précises et qui immerge ainsi tout ce qui est réel et structuré dans l’univers. Cette force est fondée sur un calculable très particulier qui n’est pas du tout celui que l’on pratique habituellement, elle représente une cause de l’existence du modèle de Turing, en utilisant notamment une notion différente de programme, en posant une nouvelle loi de calculabilité informationnelle.

L’univers pourrait alors être considéré comme un "super-méta programme entropique" incitant à constituer, partout où il le peut, des organisations d’organisations de façon opportuniste. Mais cette notion de programme n’est pas celle de programme informatique, ce qui bouscule un peu l’ordre des choses, car elle contient en elle la notion d’autonomie et pose l’information comme fondamentale, structurelle et disponible partout et tout le temps, et donc pas comme du signal envoyés d’un émetteur à un récepteur qui sont a priori présents.

Cette force incitatrice à des intensités différentes selon les structures des éléments qu’elle soumet, selon leur entropie. Il n’y a pas la même information fournie à une particule qu’à un organisme vivant ni à un ensemble d’organismes. L’information donnée aux particules pour permettre de conduire leurs comportements physiques est directe, permettant simplement de suivre les lois de la physique, car il s’agit d’éléments ponctuels et l’information est alors elle-même élémentaire. L’information donnée à des organismes vivants est une incitation envoyée à l’organisation d’une structure complexe, changeante, ayant localement de l’autonomie. Ce sera une information disponible située au niveau de son organisation même, donc de sa complexité. Dans le cas des organismes vivants, cette information sera parfois incitatrice de bifurcations dans leurs reproductions, pour que se réalisent des différences évolutives selon l’état général courant, selon le contexte général, et aussi selon la possibilité des organismes à la suivre.

Il y a donc, ce qui est un caractère scientifique des systèmes organisés ayant de l’autonomie, une réelle liberté des éléments organisés à appréhender ou non cette information comme une tendance globale incitatrice. Disons que plus les organismes ont acquis de l’autonomie comportementale, moins ils sont soumis à cette force incitatrice et plus leur organisation peut ne pas en tenir compte. Et précisons que cette force informationnelle ne s’exerce pas directement sur la pensée des êtres humains, leur cerveau étant un organe localisé dans leur corporéité et générant des représentations des choses du monde en étant soumis à de nombreuses pulsions.

Partager cet article

18 avril 2015 6 18 /04 /avril /2015 20:25

Les croyances traditionnelles postulent que la vie sur Terre est un phénomène unique, peut-être apparu une seule fois. De là, il est aisé d'affirmer que cette apparition, de par son caractère improbable, n'a été rendue possible que par une intervention extérieure, nécessairement divine. Cette croyance se trouve fortifiée, de nos jours encore, par l'impossibilité de découvrir avec suffisamment de certitude l'existence, actuelle ou passé, de formes de vie sur d'autres planètes que la Terre au sein du système solaire, et a fortiori dans le reste de l'univers.

Cyanide

Cependant, l'observation de ce que l'on nomme des molécules organiques complexes, dites aussi briques de base de la vie ou molécules prébiotiques, s'est généralisée, soit sur des comètes, soit dans le système solaire sur des lunes de Saturne et Jupiter, soit même dans les nuages de poussières dites cosmiques, pouvant précéder la formation de planètes. S'agit-il cependant de phénomènes exceptionnels ou au contraire de phénomènes absolument généraux, pouvant laisser penser que, dans la galaxie voire dans l'univers lui-même, la vie pourrait émerger, sous des formes proches de celles que nous connaissons, dès que des conditions favorables, de température, d'ensoleillement et d'humidité le permettraient ?

Une découverte, dont le compte-rendu vient d'être publié dans la revue Nature, laisse penser que dans le disque protoplanétaire entourant une jeune étoile se trouvent de telles molécules organiques. Le disque protoplanétaire est un disque composé de divers molécules susceptibles de s'agréger en planètes orbitant autour de l'astre. Y trouver des molécules organiques peut laisse penser que, dès la formation de ces proto-planètes, les briques de base de la vie pourraient se trouver présentes. Autrement dit, des formes de vie pourraient apparaître sur ces proto-planètes très peu de temps après leur formation (accrétion).

Selon les astronomes, de telles molécules se trouveraient dans une région analogue à celle que l'on nomme dans le système solaire la ceinture de Kuyper. C'est dans celle-ci que se forment, au delà de Neptune, des planétésimaux et des comètes, lesquelles peuvent ensuite voyager dans tout le système solaire. On estime que cette ceinture est riche, non seulement en molécules organiques mais en eau, supposée principalement sous forme de glace.

L'étoile MWC 480, dont la masse est à peu près le double de celle du Soleil, se trouve approximativement à une distance de 455 années-lumière, dans la région dite du Taurus riche en formation d'étoiles. La grande sensibilité d'ALMA a permis de prouver que dans le voisinage d'une telle étoile, les molécules organiques ne sont pas détruites par des rayonnements divers, mais au contraire prospèrent. Elle se trouvent en effet en bien plus grande quantité que dans les nuages interstéllaires. Les astronomes ont calculé qu'il se trouve assez de méthyl-cyanide autour de l'astre pour remplis tous les océens de la Terre.

Repousser le problème de la formation des molécules prébiotiques mais non le résoudre

Il va de soi que ces observations très intéressantes ne résolvent pas les questions qui se posent nécessairement en amont mais aussi en aval. En amont, reste à comprendre par quels mécanismes se forment les molécules complexes, au sein d'un univers essentiellement empli de corps simples. S'agit-il de corps présents dès la naissance de l'univers ou apparaissent-ils seulement dans les secondes, minutes ou jours suivant celle-ci, notamment dans le cadre de ce que l'on appelle l'inflation. Leur formation initiale résulte-t-elle d'un hasard ou était-elle inévitable dans le cadre de ce que l'on nomme les lois fondamentales de l'univers.

En amont, reste à démontrer, y compris par des expériences de laboratoire sur Terre, comment ces molécules prébiotiques peuvent s'organiser pour donner naissance aux molécules réplicatives caractérisant la vie sur Terre. La réponse à cette seconde série de questions paraît plus à la portée de la science que celle concernant les premiers instants de l'univers. Mais pour le moment elle ne l'est pas. .

Références

Article dans Nature

Alma . Son site

Wikipedia Cyanide

1) En forçant un peu le raisonnement, on pourrait même envisager que de telles molécules puissent être des précurseurs du pétrole abiotique supposé présent sur certaines planètes, notamment la Terre. Cf notre article.

Partager cet article

Jean-Paul Baquiast - dans sciences
commenter cet article
24 mars 2015 2 24 /03 /mars /2015 18:18

Jean-Paul Baquiast 24/03/2015



Vénus et laTerre. Dans quelques siècles, pas de différences?

Dmitry Orlov, né en 1962, est un ingénieur et écrivain russo-américain. Ses écrits ont pour sujet le déclin et l'effondrement économique, écologique et politique potentiel aux États-Unis. Ici il n'aborde pas seulement la question de l'effondrement des Etats-Unis, mais celle de l'effondrement du monde.

Dans l'esprit des préoccupations qui sont principalement les nôtres sur ce blog, nous avons extrait de l'article d'Orlov référencé ci-dessous certains paragraphes (en noir) nous paraissant appeler des commentaires de notre part (en italique rouge). Nous avons résumé les propos d'Orlov et réorganisé pour plus de clarté l'ordre des paragraphes.

Première partie. Le phénomène de la destruction en marche

1) Pic du pétrole

La première hypothèse d'Hubbert ( voir Wikipedia Pic de Hubbert) , qui prédisait que le pic de production historique de pétrole par les USA serait atteint dans les années 1970, s'est révélée juste. Mais les prédictions suivantes, qui situaient le pic de production mondial, suivi par un effondrement rapide, autour des années 2000 se sont avérées erronées. Quinze ans plus tard, la production mondiale bat tous les records. Les prix du pétrole, qui étaient élevés pendant un certain temps, se sont temporairement abaissés. Cependant, si l'on examine de plus près les détails de la production de pétrole, il devient flagrant que la production conventionnelle de pétrole a atteint son maximum en 2005, soit 5 ans après la date prévue, et n'a fait que diminuer depuis. Les compléments de production ont été fournis par des moyens d'extraction difficiles et coûteux (forages en profondeurs, fracturation hydraulique), et par des produits qui ne sont pas exactement du pétrole (sables bitumineux).

Les prix actuels sont trop bas pour soutenir cette nouvelle production qui nécessite des investissements élevés pendant longtemps. L'abondance actuelle commence à ressembler à un banquet qui sera suivi par la famine. La cause directe de cette famine ne sera pas l'énergie, mais la dette, bien que ses origines puissent être reliées à l'énergie. Une économie de croissance nécessite une énergie bon marché. Des coûts d'énergie élevés réduisent la croissance, et obligent à contracter des dettes qui ne pourront jamais être payées. Une fois que la bulle d'endettement aura explosé, il n'y aura plus assez de capitaux pour investir dans une nouvelle phase coûteuse de production d'énergie, et le délabrement final s'installera.

Notre commentaire.

Il n'est pas certain que le pic de production d'énergie fossile soit jamais atteint dans le siècle. D'une part de nouvelles réserves de gaz relativement faciles à exploiter se découvrent régulièrement, par exemple en arctique. D'autre part le réchauffement climatique, parmi ses effets nocifs, produira d'énormes quantités de méthane ,elles-aussi semble-t-il facilement exploitables. Inutile de préciser que tout ceci ne fera qu'accélérer le réchauffement, en retardant les investissements visant les économies d'énergie et les énergies renouvelables. La Russie et la Chine, outre l'Amérique du nord, seront les principaux agents de ce recours au pétrole-gaz arctiques et au méthane. Il s'agit évidemment de mauvaises nouvelles concernant les risques et délais de survenance des futures catastrophes climatiques.

2.) Les USA en pleine décomposition

La meilleure description qui puisse se faire des USA est celle d'une nation en pleine décomposition, dirigée par une petite clique d'oligarques contrôlant les masses au moyen de discours orwelliens. La population est à un tel niveau d'aveuglement que la plupart des gens pensent encore que tout va bien dans le meilleur des mondes. Cependant, quelques-uns réalisent que le pays a de très nombreux problèmes, notamment la violence, l'abus d'alcool et de drogues, l'hyper-consommation destructrice. Mais ils ne peuvent se faire entendre. Les géants du web américain leur impose de penser que tout ira bien s'ils continuent à consommer davantage et éviter de réfléchir.

Les signes de cet état avancé de décomposition ne peuvent être ignorés, qu'il s'agisse de l'éducation, la médecine, la culture, ou de l'état général de la société américaine, dans laquelle la moitié des personnes en âge de travailler ne peuvent gagner de quoi vivre une vie décente. Mais c'est encore plus évident lorsque l'on s'intéresse à la liste sans fin des erreurs qui forment l'essence de la politique étrangère des USA.

L'État Islamique, qui dirige maintenant une grande partie de l'Irak et de la Syrie, est un exemple d'échec particulièrement flagrant. Cette organisation avait d'abord été mise en place, avec l'aide des USA, pour renverser le gouvernement syrien, mais au lieu de cela elle commence à menacer la stabilité de l'Arabie saoudite. Et ce problème a encore été aggravé par le déclenchement d'une nouvelle guerre de moins en moins froide contre la Russie. Celle-ci pourtant, avec son immense frontière sud-asiatique, est l'une des grandes nations qui cherche à combattre l'islamisme extrémiste.

Un autre exemple est le chaos militarisé et l'effondrement économique complet qui ont englouti l'Ukraine suite au renversement violent, organisé par les USA, de son tout dernier gouvernement constitutionnel il y a un an. La destruction de l'Ukraine a été justifiée par le calcul simpliste de Zbigniew Brzezinski, supposant que transformer l'Ukraine en une zone antirusse occupée par l'Otan sera à même de contrer efficacement les ambitions impérialistes russes. Le fait que la Russie ne montre pas d'ambitions impérialiste est l'un des défauts majeurs de ce calcul. La Russie possède tout le territoire dont elle aura jamais besoin, mais pour le développer, elle a besoin de la paix et d'accords commerciaux.

Un autre grain de sable non prévu par Brzezinski vient du fait que la Russie se sent concernée par la protection des intérêts des populations russophones, où qu'elles puissent vivre. Pour des raisons de politique intérieure, elle agira toujours pour les protéger, même si ses actions doivent être illégales et risquent de mener à un conflit militaire de grande ampleur. Donc, la déstabilisation de l'Ukraine par les Américains n'a rien accompli de positif, mais a accru le risque d'autodestruction nucléaire.

Notre commentaire

Cette description de la décomposition des USA, qui paraît fondée, devrait conduire les européens à se demander si l'Europe ne participe pas elle-même à cette décomposition, du fait qu'elle paraît décidée à rester inféodée aux USA. C'est par exemple ce qu'a demandé le président polonais Komorovski à la dernière réunion du German Marshal Fund ( http://brussels.gmfus.org/ ) en suggérant que les USA et l'Union européenne fusionnent. L'avenir de l'Europe se trouve au contraire dans le renforcement de ses identités variées et, ainsi armée, dans des coopérations stratégiques avec le Brics, Russie, Chine, Brésil, Inde notamment. Mais qui s'en rend compte en Europe aujourd'hui?

3) Détérioration accélérée du climat de la Terre

Les prévisions parfaitement scientifiques du GIEC continuent à se heurter au lobby des climato-sceptiques. Quand ils ne nient pas la détérioration actuelle, ils font miroiter des solutions d'ingénierie climatique ou géo-ingénierie qui d'une part sont hors de portée technique ou budgétaire et qui, d'autre part, en cas de succès, pourraient entrainer des conséquences encore plus dangereuses que le réchauffement prévu.

Nous assistons aujourd'hui à un épisode d'extinction massive déclenchée par l'homme, qui ira sans aucun doute au-delà de tout ce qu'a pu expérimenter l'humanité,. Elle pourrait rivaliser avec la grande extinction Permien-Trias, qui a eu lieu il y à 252 millions d'année. Il est même possible que la Terre se transforme en planète stérile, avec une atmosphère tout aussi surchauffée et toxique que celle de Vénus. Ces changements sont en train de se produire, il ne s'agit pas de prédiction, mais d'observations.

Notre commentaire

Dmitry Orlov ne dénonce pas suffisamment les intérêts industriels, financiers et géopolitiques qui imposent à l'humanité toute entière de continuer à gaspiller l'énergie et les ressources naturelles « comme avant », c'est-à-dire sans rien changer. Même si combattre de tels intérêts paraît hors de portée des citoyens ordinaires, il faut néanmoins tenter de les analyser, non seulement sous leur forme actuelle, mais sous les formes qu'ils revêtent afin de faire face à des critiques renouvelées.

Le paysage des oligarchies dominantes est complexe et généralement gardé secret par celles-ci. Ceci ne doit pas justifier les refus d'analyses, aussi scientifiques que possible.

Seconde partie. La destruction. Incertitudes qui demeurent

1. Jusqu'où ira ce processus ?

Existera-t-il encore un habitat dans lequel l'humanité pourrait survivre? Pour survivre,les hommes ont besoin d'une abondance d'eau potable, de glucides, graisses et protéines, autrement dit d'écosystèmes viables permettant de les extraire. Si l'ensemble de la végétation meurt, ils mourront aussi. De plus, ils ne peuvent survivre dans un environnement où la température humide dépasse leur température corporelle. Enfin, ils ont besoin d'un air respirable, doté d'assez d'oxygène et dépourvu sauf sous forme de traces de dioxyde de carbone et de méthane. Or c'est ce qui se produira lorsque la végétation aura disparue, que le permafrost aura fondu, que le méthane actuellement emprisonné dans les clathrates océaniques aura été libéré. Les hommes mourront tous, comme d'ailleurs les autres formes de vie supérieure, animaux et végétaux.

Nous savons déjà que l'augmentation des températures moyennes globales a dépassé le degré Celsius depuis les temps préindustriels. Si l'on prend en compte les modifications de composition atmosphériques, pouvant en sens opposé augmenter les effets de serre ou jouer un rôle d'écran analogue à celui des nuages, qui ralentit le réchauffement, on peut approximer que la température moyenne devrait augmenter d'au moins encore 1 degré. Cela devrait à terme de cent ans, rapprocher du seuil limite d'augmentation, estimé à 3,5 degrés. Or aucun homme n'a jamais vécu sur une Terre plus chaude de 3,5 degrés, par rapport aux températures actuelles.

Pas de commentaires

2. A quelle vitesse ce processus va-t-il se dérouler ?

L'inertie thermique de la planète est telle qu'on constate un décalage de quarante ans entre la modification de la composition chimique atmosphérique, et le ressenti de ses effets sur les températures moyennes. A ce jour, nous avons été protégés de certains de ces effets par la fonte des glaciers et du permafrost dans l'Arctique et l'Antarctique, et la capacité de l'océan à absorber la chaleur. Certains scientifiques annoncent qu'il faudra sans doute près de cinq mille ans pour que les glaces disparaissent, mais les modes de refroidissement des glaciers ne sont pas bien compris, notamment concernant leur rapidité a relâcher des icebergs, qui dérivent alors vers des eaux plus chaudes et y fondent rapidement.

La plus grande surprise de ces dernières années a été le taux de libération du méthane auparavant emprisonné dans l'Arctique. Il s'agit de ce que l'on a nommé le clathrate gun, qui pourrait relâcher jusqu'à cinquante gigatonnes de méthane en quelques décades. Le méthane est un gaz à effet de serre considérablement plus puissant que le CO2. La quantité de méthane concentrée dans les clathrates est suffisante pour dépasser par un facteur pouvant aller de 4 à 40 le potentiel de réchauffement climatique généré par toutes les énergies fossiles brulées à ce jour.

En voyant de telles données, certains chercheurs ont émis l'hypothèse d'une extinction humaine imminente. Les estimations varient, mais, de manière générale, si le clathrate gun a vraiment été déclenché, alors les humains ne devraient prévoir d'être présents après la seconde moitié du présent siècle.

Dans l'intervalle cependant, la surpopulation humaine actuelle aura laissé la place à des mortalités massives. La surpopulation est actuellement rendue possible par l'utilisation des énergies fossiles. Une fois cette utilisation ralentie, la population humaine s'effondrera. Il faudra compter par exemple avec la mort par coups de chaleur des citadins accumulées dans les mégapoles que l'on pourra plus climatiser en été.

Notre commentaire

Concernant les mortalités, on peut prévoir que la plupart ne se produiront pas pacifiquement, si l'on peut dire. Elles résulteront de guerres pour la survie opposant les populations les premières atteintes à celles disposant encore de ressources naturelles et technologiques ou de climats plus protecteurs.

Concernant par ailleurs la vitesse de survenance des grandes catastrophes, il faut préciser que l'incertitude la plus grande demeure. Elles peuvent se dérouler sur un siècle ou un peu plus, laissant le temps aux populations les plus riches de s'adapter. Elles peuvent aussi atteindre ce que les scientifiques nomment un effet de non retour auto-entretenu et auto-accélérée. En ce cas, le point à ne pas dépasser pourrait survenir en quelques années, ne laissant aucun répit permettant l'adaptation.

3. Où survivre le plus longtemps possible?

Ce sera dans la partie nord de l'Eurasie et du Canada. Mais là l'encombrement sera maximum.

Notre commentaire final

Sans être garanties à 100%, comme peut l'être par exemple la prévision d'une éclipses, ces anticipations de Dmitry Orlov devraient être prises le plus au sérieux possibles par ceux qui prétendent décider de l'avenir du monde. Or comme souvent constaté, ceux-ci sont incapables de le faire.

Cet aveuglement ne relève pas seulement, peut-on penser, de motifs liés à la protection des avantages acquis. Il relève de causes plus profondes, de type biologique. Nous avons plusieurs fois ici signalé les hypothèses selon lesquelles le cerveau humain est incapable de prévoir concrètement au delà d'un temps très limitée. A supposer que le cortex puisse le faire, il se heurte à des réflexes génétiquement déterminés et impossibles à modifier faisant qu'un groupe donné, menacé par la concurrence avec un autre groupe, préfèrera mourir que négocier avec ce dernier.

Pour notre part, personnellement, nous avons défendu la thèse selon laquelle ce ne sont pas les humains tels qu'ils sont couramment envisagés qui décident du sort du monde, mais des systèmes que nous avons nommé anthropotechniques, lesquels sont en concurrence darwinienne pour la domination. Or la composante technique de tels systèmes, contrairement à leur composante anthropologique, paraît pour le moment encore inaccessible au simple bon sens. C'est ainsi pour reprendre un propos de Dmitry Orlov, que les forces technologiques réagissant plus vite que leurs composantes anthropologiques s'investissent, non pas dans la lutte contre la protection de la planète, mais dans la recherche de solutions dites d'ingénierie climatique qui ne feront à terme qu'aggraver le mal.

Sources à consulter

* L'article original de Dmitry Orlov

* Wikipedia Dmitry Orlov

Partager cet article

14 mars 2015 6 14 /03 /mars /2015 13:46

Jean-Paul Baquiast et Christophe Jacquemin - 11 mars 2015

 

Apple espère rencontrer un nouveau succès "planétaire" avec sa montre connectée, l'Apple Watch, qui sera disponible en neuf pays, dont la France, fin avril prochain.
Les versions en ont été annoncées, de même que les prix et l'autonomie. Ne nous faisons pas ici les porte-paroles de la firme. Disons que ces prix, selon les versions, iront de 400 à 15.000 euros, auxquels devront s'ajouter les taxes payées par l'acheteur, variables selon les pays. Quant à l'autonomie, nous y reviendrons ci-dessous

Comme chacun devrait le savoir dorénavant, sur les sommes ainsi perçues, Apple ne paiera que des montants d'impôts ridicules, ceci du fait de la non-harmonisation des réglementations fiscales en ce monde. Grâce à cette évasion fiscale, la firme a pu annoncer en 2014 un bénéfice annuel de 39, 5 milliards de dollars de bénéfices. Ce chiffre est à comparer aux 3 milliards d'euros nécessaires cette année à la France pour s'acquitter de ses obligations à l'égard de Bruxelles, à comparer aussi aux 30 milliards demandés à la Grèce.

Foire mondial aux esbrouffes ?

On dira que ce bénéfice record est principalement dû à l'engouement des acheteurs pour l'iPhone. Mais il y a tout lieu de penser que ledit engouement résulte en grande partie des habiles campagnes de communication d'Apple. Le moindre utilisateur un peu averti connaît au moins une demi-douzaine d'appareils moins chers rendant des services équivalents. Il y a tout lieu de penser que de la même façon, malgré la crise, un grand nombre d'acheteurs vont se précipiter sur l'Apple Watch, sans se demander un instant si le prix payé correspond à un service véritablement utile, que des montres banales d'ailleurs ne rendraient pas.

Certes, disent les responsables du marketing d'Apple, la Watch donne l’heure à travers des cadrans numériques personnalisables. Elle permet d’envoyer des messages, de lire ses courriels, de prendre des appels téléphoniques. Mais le tout se fait par une liaison sans fil avec un smartphone qui doit nécessairement être un iPhone. De même la montre permet un suivi d’activité grâce à un détecteur de rythme cardiaque, un accéléromètre et la synchronisation avec le GPS du smartphone.

Il s'agit de fonctionnalités sur l'utilité desqueleles l'honnête travailleur ayant peu de temps à consacrer au suivi des paramètres de sa petite personne devrait s'interroger. De plus, elles sont proposées par diverses montres connectées déjà sur le marché, à des prix moindres. Mais Apple ne vise pas nécessairement le seul honnête travailleur acheteur du modèle à 400 euros, il vise à attirer ceux, sans doute moins "plan-plan", qui considèrent avoir manqué leur vie si à 50 ans ils ne possèdent pas une Rollex. Le modèle dit "haut de gamme" sera doté d’un boîtier en or 18 carats. Où et à quels prix, demandons-nous en passant, Apple achètera-t-il l'or nécessaire ?
 

Donner l'heure

Concernant cependant la fonction attendue d'une montre, c'est-à-dire donner l'heure et éventuellement la date, ce que fait le moindre produit à 50 euros (voire moins) doté d'une pile ne nécessitant d'être changée que tous les deux ans, l'Apple Watch bat tous les records de ridicule. Son autonomie est d'environ 18 heures. Comme quoi l'utilisateur devra transporter avec lui non seulement sa montre mais un dispositif de recharge, aussi laid qu'encombrant.
Certes, Apple fait valoir que de nombreuses start-up(s) développeront des applications plus utiles les unes que les autres permettant de justifier l'achat de la montre. Mais combien d'entre elles intéresseront le public ? Il suffit de voir les invendus, encombrant déjà l'Apple Store, pour en avoir une petite idée.

La plupart des clients qui font vivre les sociétés de consommation auxquelles nous appartenons ne se demanderont pas pourquoi ces mêmes sociétés reposent, au niveau mondial, sur le pouvoir que se sont attribué les 5% d'individus et organismes qui détiennent l'essentiel des richesses du monde : n'est-ce pas en partie du fait de nos comportements moutonniers sinon serviles à l'égard de ces hiérarchies dominantes et des "valeurs" qu'elles défendent ?

Sans aborder ce vaste problème ici, bornons-nous à dire que - pour notre part - nous n'avons pas l'intention d'acheter la moindre Apple Watch, comme nous n'avions pas l'intention d'acheter la moindre Google Glass.
 

L'Apple Watch et la santé

SIgnalons qu'Apple, en même temps que l'Apple Watch, a lancé ResearchKit, un logiciel qui actuellement opère sur l'iPhone et pourra utiliser les données recueillies par la Watch. Ceci permettra aux porteurs de la montre de participer, via des applications adéquates, à des études portant initialement sur les fréquences cardiaques, les effets de l'exercice physique et du repos ou ceux du stress.

D'autres données permettront par exemple de géolocaliser les différents profils de santé, afin d'en tirer des indicateurs portant sur les besoins et les ressources destinés aux responsables des politiques de santé (ou aux entreprises faisant métier de vendre des produits et activités de santé). Apple s'engage à confidentialiser les données individuelles recueillies, afin notamment de ne pas diffuser des éléments intéressant des personnes identifiables.

D'ores et déjà Apple a mis en place un réseau permettant aux centaines de millions d'utilisateurs de ses produits actuels d'alimenter en données personnelles des instituts de recherche répartis dans le monde, de l'Université d'Oxford à l'hôpital Xuanwu de Pékin. Les sujets de recherche sont la maladie de Parkinson, le diabète, l'asthme, les cancers du sein et diverses maladies cardiaques. On conçoit que la transmission quasi automatiques de ces données de santé aux instituts de recherche est bien plus efficace et moins coûteuses que les méthodes traditionnelles d'enquête.

Dans un domaine différent, le système dit Apple Pay permettra aux porteurs d'iPhone, et sans doute aussi d' Apple Watch, d'accomplir où qu'ils se trouvent des opérations de paiement. Tout ceci est bel et bon, mais il faut se rendre compte qu'Apple, comme d'autres multinationales américaines analogues, sont en train d'organiser un monde numérique global où les individus n'auront pas plus d'indépendance que n'en ont les cellules individuelles de notre corps. Un monde également dont leurs responsables sont seuls à définir les spécifications.

Partager cet article

6 mars 2015 5 06 /03 /mars /2015 10:00

Jean-Paul Baquiast 06/03/2015
 


Chronologie : Sur ce graphique, l'explosion du Cambrien se situe
à la hauteur de l'image désignée comme Hard-shelled Animals,
animaux dotés de structures rigides (calcaires).

NB. On trouvera en italique, dans le cours de cet article, quelques observations personnelles.


Sparks of life est le titre d'un article de Bob Homes, qui est paru le 1er mars 2015 dans le New Scientist(1). Bob Holmes est un journaliste scientifique estimé, publiant régulièrement des textes dans la revue. Nous nous bornerons ici à résumer sommairement son dernier article. Il vient compléter avec beaucoup d'éléments nouveaux résultant de recherches et réflexions récentes ceux que nous avions précédemment publiés sur notre site(2).

Sparks of life fournit de nouveaux éléments à la question que se posent encore sans réponses définitives les biologistes évolutionnistes : pour quelles raisons, après les milliards d'années ayant suivi le moment où la vie est apparue sur Terre (ou plutôt dans les mers) sous les formes simples d'organismes, bactéries ou algues monocellulaires, ces organismes se sont brutalement complexifiés sous la forme d'organismes multicellulaires, généralement dits métazoaires, dont sont issues toutes les espèces aujourd'hui présentes sur le globe ?

Certes les premiers multicellulaires, apparues vers – 800 – 750 millions d'années, n'ont pas laissé de traces fossiles directes. Cependant aujourd'hui, des fouilles menées dans les Montagnes Rocheuses canadiennes, dans les schistes proches du Marble Canyon, permettent de mettre au jour des spécimens d'organismes primitifs dont il y a tout lieu de penser qu'ils dérivent directement des premiers multicellulaires. Les chercheurs ont ainsi trouvé de nombreux spécimens d'arthropodes très proches des insectes et crustacés modernes. Leur âge est estimé à – 500 millions d'années.

Marble Canyon a été découvert récemment. Il appartient à l'ensemble désormais célèbre des schistes du Burgess (Burgess Shale) qui constituent encore aujourd'hui la source d'information la plus riche concernant les premiers multicellulaires. Ceux-ci se sont brutalement diversifiés dans ce qui est nommé l'explosion du Cambrien. Les fossiles ou indices datant de cette époque appartiennent à ce que l'on nomme la faune du Burgess. Ils présentent une extraordinaire diversité, avec de très nombreux caractères qui se sont perdus dans la suite de l'évolution. Beaucoup de ces caractères cependant se sont conservés et peuvent être considérés comme les prototypes de ceux retrouvés sous forme fossile ultérieurement ou au sein des organismes modernes. L'explosion de Cambrien n'a cependant duré que quelques millions d'années, c'est-à-dire un temps très court à l'horloge de l'évolution (voir ci-dessus).

On doit noter que certaines créatures proches de celles du Burgess ont été récemment découvertes en Chine dans le Site fossilifère de Chengjiang, dans le Yunnan, dénotant une possible répartition plus large que celle jusqu'ici attribuée à la faune du Burgess – ce qui n'aurait d'ailleurs rien d'étonnant(3).

Causes envisagées

On estime aujourd'hui que cette explosion du Burgess n'a pas été due à un facteur unique, mais à la conjonction de facteurs survenus simultanément et s'étant répercutés et amplifiés réciproquement uns sur les autres (de même qu'aujourd'hui le passage à ce que l'on nomme la Singularité dans l'évolution technologique peut être attribuée à la conjonction d'évènements dits convergents et exponentiels).

Les premiers indices d'organismes multicellulaires apparaissent dans des roches de – 750 millons d'années qui contiennent des biomolécules fossilisées telles qu'elles se retrouvent aujourd'hui dans les éponges. 150 millions d'années plus tard sont apparus les Ediocarans (voir notre article cité) répandus dans les mers du début du Cambrien, disparus ensuite dans ce que l'on peut qualifier une première extinction massive, sans laisser de descendants analogues aux formes de vie moderne. Cependant, à défaut de fossiles, les traces laissées dans le sous-sol marin sous forme de tranchées et d'abris crées par ces organismes 4) montrent qu'à la transition Ediacaran-Cambrien, d'importants changements sont survenus chez les organismes responsables de ces traces. Celles-ci, tranchées et autres, laissées par les organismes vivant sur le plancher sous-marins, correspondent à des animaux très différents, vers et mollusques. (Il aurait été intéressant de préciser comment les paléontologues distinguent de telles traces de celles résultant d'une simple évolution de la roche).

Dans les schistes datés de – 520 millions d'années se retrouvent les principaux groupes d'animaux vivant aujourd'hui. Autrement dit, entre – 540 et – 520 millions d'années s'est construit le paysage animal actuel, homo sapiens compris. (L'évolution des végétaux terrestres a suivi des voies un peu différentes, à partir notamment des monocellulaires photosynthétiques) On a longtemps pensé qu'il a fallu 2,5 milliards d'années aux gènes des premiers organismes monocellulaires pour évoluer spontanément et donner naissance aux gènes modernes. L'hypothèse est recevable, mais rien ne permet de la prouver. Pourquoi pas 1 milliard ou 5 milliards d'années? D'autant plus que l'étude des multicellulaires antérieurs au Cambrien, notamment les ediocarans, montre que la plupart possédaient une complexité presque aussi grande que celle de leurs successeurs du Cambrien. Pourquoi alors n'avaient-ils pas subi une évolution aussi explosive que celle de ces derniers ?

On a suggéré d'autres facteurs pouvant être à la base de l'explosion du Cambrien. La productivité en nutriments des fonds marins aurait pu être fortement accrue à la suite des fouissages résultant de l'activité des premières générations d'organismes. Dans un autre ordre d'idée l'apparition de prédateurs aurait pu enclencher une guerre évolutive entre prédateurs et proies.

La question reste par ailleurs posée de savoir pourquoi l'explosion du Cambrien ne s'est pas produite plus tôt (ou plus tard). Il a été observé qu'à partir du Cambrien le niveau des mers s'est fortement élevé. Ceci a provoqué une érosion continentale apportant aux océans des éléments minéraux dont ils étaient peu pourvus jusqu'alors, calcium, phosphates et potassium. Les animaux s'en seraient servis pour diversifier et fortifier leurs formes. Cependant, l'expérience montre aujourd'hui que l'apport de nouveaux nutriments entraine une augmentation du nombre des individus propres à chacune des espèces bénéficiaires, mais ne provoque pas nécessairement l'apparition de nouvelles espèces.

Un autre facteur explicatif pourrait être l'augmentation du taux d'oxygène dans l'atmosphère. Aux origines de la vie et jusqu'à – 8oo millions d'années, le taux d'oxygène atmosphérique était d'environ 0,1% du taux actuel. Sans oxygène, les organismes vivants sont peu actifs. Peu de prédateurs n'apparaissent, la prédation supposant le mouvement. A partir d'un taux de 1 à 5 % du taux actuel, tout change. Or il semble que les anciens océans aient commencé à atteindre ce taux à l'époque de l'explosion du Cambrien. Ceci aurait résulté de l'activité des planctons photosynthétiques s'étant développés dans les mers durant le milliard et quelques d'années précédentes.

Une hypothèse un peu différente intéressant la réponse à cette question a été présentée en 2014(5). Les cadavres des algues et bactéries monocellulaires tombaient pendant les milliards d'années initiales au fond des océans et pourrissaient, en consommant le peu d'oxygène alors présent dans l'eau. Les choses ont changé lorsque les éponges sont apparues, un peu avant les edicarans. Elles ont joué le rôle de filtre purgeant les eaux des excès de cadavres d'unicellulaires. De même leurs restes, enfouis eux aussi au fond des océans, étaient de taille suffisante pour y retenir de l'oxygène.

Les recherches se poursuivent sur ces questions. Elles sont plus importantes qu'il n'y paraît. Aujourd'hui, des changements massifs affectent la température, l'oxygénation, la composition chimique et le type d'organismes vivant dans les océans. Or plus on en saura sur les mécanismes en causes, mieux cela sera.

Malheureusement, tout laisse penser qu'actuellement ce ne serait pas une nouvelle explosion et diversification de la vie qui se préparerait sur le modèle de celle du Burgess, mais une nouvelle grande extinction, analogue à l'extinction Permien Trias, sinon plus massive.

Notes
(1) NewScientist. Sparks of life http://www.newscientist.com/article/mg22530100.600-evolutions-big-bang-how-life-on-earth-took-off.html#.VPhlNOERlEM
(2) Voir par exemple sur Automates Intelligents, nos articles concernant les premières formes de vie et l'origine des organismes multicellulaires.
* L'étonnante aventure des Ediacarans
* Les BioMEMS
* Notre recension du livre de Nick Lane, Life ascending The Ten Great inventions of Evolution
(3) Voir http://whc.unesco.org/fr/list/1388/
(4) Voir Decoupling of body-plan diversification and ecological structuring during the Ediacaran–Cambrian transition: evolutionary and geobiological feedbacks, février 2014
(5) Voir Nature Geoscience Co-evolution of eukaryotes and ocean oxygenation in the Neoproterozoic era

Partager cet article

Articles Récents

Liens