Overblog
Suivre ce blog Administration + Créer mon blog

Texte libre


Pourquoi ce blog ?

Cet ensemble de textes a été conçu à la demande de lecteurs de la revue en ligne Automates-Intelligents souhaitant disposer de quelques repères pour mieux appréhender le domaine de ce que l’on nomme de plus en plus souvent les "sciences de la complexité"... lire la suite

Recherche

Archives

23 décembre 2016 5 23 /12 /décembre /2016 19:23

La "riche Allemagne", lors de la deuxième conférence franco-allemande sur le numérique, s'est interrogée sur l'avenir de son système économique dans la mesure où le numérique remplacera rapidement une grande partie des emplois actuels, même dans le domaine des services. La création de nouveaux emplois dans l'industrie numérique et dans la robotisation ne suffira pas à faire face à la destruction des emplois actuels. Ceci d'autant plus que les investissements nécessairement coûteux pour créer de nouveaux outils numériques ne seront plus à la portée de société nécessairement appauvries par la perte des emplois actuels.

Seules pourront les consentir les quelques super-entreprises numériques déjà existantes. Il s'agit principalement des 7 grands de l'Internet déjà existants et tous américains. Google en est l'exemple souvent cité, mais il n'est pas le seul. On ne voit pas pourquoi ces accapareurs de l'intelligence collective détourneraient une partie de leurs bénéfices pour en faire profiter la masse des citoyens. Ils se bornent à redistribuer le peu d'activité et de revenus nécessaires pour que les 7 milliards d'humains numérisés ou potentiellement numérisés puissent survivre sans se révolter radicalement.

Mais que font de leurs bénéfices les Google et homologues? Certes, leurs dirigeants, cadres et rares employés vivent raisonnablement bien, mais ceci ne suffira pas à assurer leur avenir. Nous avons plusieurs fois montré qu'ils investissent de plus en plus massivement dans les recherches visant à mettre en place un « cerveau numérique « global » dont ils seront les éléments moteurs.

Un cerveau global

Un tel cerveau pourra défricher les immenses champs de production, de consommation et de profit résultant du développement, grâce aux outils numériques, de champs jusqu'ici inexplorés, car hors de portée des sociétés actuelles, même de la « riche Allemagne ». Ces champs permettront d'échapper aux limites imposées au développement actuel par la raréfaction de l'énergie et des ressources, la perte dramatique de la biodiversité et l'extension d'une pollution destructrice. Pour se développer, ils auront besoin de peu de ressources matérielles mais d'énormes ressources intellectuelles.

Ces ressources existent potentiellement chez tous les humains. Mais seule la généralisation des recherches et applications scientifiques visant, au sens large, à la construction de ce cerveau global permettra d'y faire appel. Or seuls les Google et homologues se réservent la possibilité de mettre en place de telles recherches. Leurs coûts seront progressivement amortis grâce à l'accès a de nouvelles ressources dont ils se réserveront le monopole.

Mentionnons à titre d'exemple les domaines souvent cités de la biologie génétique, de la physique des nouveaux matériaux, de la chimie des nouveaux composants. Tout ceci permettra, pour reprendre une image souvent critiquée mais qui paraît incontournable, l'apparition de quelques dizaines de milliers de post-humains capables d'exploiter les possibilités du spatial, de territoires inaccessibles à la vie sous sa forme actuelle, tant sur les continents que dans les océans, d'une intelligence artificielle de plus en plus autonome dans ses capacités de création.

On peut comprendre que, lors des conférences sur le numérique, ces sujets difficiles ne soient pas étudiés en détail. Tout au moins devraient-ils être évoqués. L'Allemagne comme d'ailleurs la France sont assez riches en capacités scientifiques pouvoir disputer aux grands américains de l'Internet leur avance actuelle. Encore faudrait-il que les gouvernements s'en soient rendu compte et mettent en place les conditions minimum nécessaires au développement des recherches. Il ne s'agira pas alors de permettre l'émergence de quelques rares post-humain, mais d'étendre ces capacités au plus grand nombre.

Le problème ne sera évidemment pas évoqué par les futurs candidats à la présidence de la République française. Le sera-t-il, en dehors de l'Amérique, en Russie et en Chine?

Références

http://www.economie.gouv.fr/deuxieme-conference-numerique-franco-allemande-a-berlin

https://www.mediapart.fr/journal/international/221216/comment-l-allemagne-tente-de-maitriser-la-digitalisation-de-son-economie

 

Partager cet article
Repost0
25 février 2013 1 25 /02 /février /2013 21:49


Jean-Paul Baquiast - 23/02/2013

Nous avons commencé à publier divers articles sur ce thème. Avant de les réunir d'une façon méthodique, nous comptons continuer à proposer des approches n'épuisant pas la question mais susceptibles de contribuer à l'éclairer.

La science, accompagnée de sa petite sœur (ou fille) la technologie, offre des champs de réflexions très divers. Ceux qui, notamment au plan philosophique, intéressent semble-t-il le plus le grand public, concernent la physique, au sens le plus fondamental, rejoignant de fait la cosmologie: de quoi l'univers est-il fait ? Certains formulent la question autrement : quel est le tissu profond de l'univers ? Autour de quelles lois fondamentales s'est construit l'univers.

Depuis maintenant un siècle ou presque, la physique a proposé deux voies d'approche, la relativité générale (RG) due à Einstein et la mécanique quantique (MQ), due à une poignée d'esprits remarquables, les plus souvent cités étant Niels Bohr et Werner Heisenberg. Chacune dans son domaine, ces deux approches ont conduit à des découvertes théoriques et des applications qui n'ont jamais dans leur domaine été remises en cause jusqu'à aujourd'hui.

Mais, comme chacun le sait, elles ne sont pas compatibles. Elles proposent de l'univers des représentations non cohérentes. La RG par exemple définit un espace-temps réglé par la gravitation. La MQ ignore la gravitation et ne prend pas en compte le temps. Or tous les efforts pour concilier ces deux approches, sous le terme général de gravitation quantique, n'a pas encore clairement abouti. Cette contradiction entre RG et MQ empêche tout approfondissement de la recherche fondamentale, sauf à supposer que l'exigence d'un univers cohérent soit une revendication anthropique, née de notre pratique quotidienne et n'ayant pas de fondement dans la réalité.

Une autre critique est plus subtile, mal fondée diront les scientifiques. RG et MQ proposent des représentations du monde lourdement mathématiques. Elles ne peuvent être discutées dans la pratique que par le biais d'ordinateurs numériques de plus en plus puissants. Ces représentations ne peuvent donc, sauf à caricaturer l'esprit des hypothèses et théories, se traduire par des images (disons analogiques) clairement compréhensibles par les humains, scientifiques compris. Ceux-ci s'en accommodent, voire en tirent un certain sentiment de supériorité. La science n'est pas faite pour tout le monde, disent-ils. Il faut la mériter, et donc apprendre à maîtriser les mathématiques et le calcul informatique – d'autant plus, selon certains chercheurs, que l'organisation profonde de l'univers pourrait être mathématique et computationnelle.

Or les cerveaux des homo sapiens ordinaires ont été formés par l'évolution à traiter, non des équations mais des images. Ce traitement prend deux aspects: la reconnaissance de formes (de patterns, selon un terme plus général) et la création de formes, quand des formes pré-existantes ne sont pas identifiables dans l'environnement. Ainsi, le cerveau d'un animal peut juger, de par une longue expérience, génétique et individuelle, du caractère franchissable d'une rivière. Mais lorsqu'ils se trouvent en présence d'une rivière jugée infranchissable par leur cerveau, certains animaux particulièrement inventifs, parmi lesquels des humains, imaginent un pont permettant de la traverser. Il leur reste ensuite à fabriquer ce pont avec les moyens à leur disposition. Ils n'ont pas attendu les mathématiques de l'ingénierie des ponts, venues bien plus tard, pour imaginer puis réaliser des ponts.

Si l'on admettait donc qu'il faudrait, pour critiquer et modifier en profondeur les modèles scientifiques, renoncer à toute imagination (autre que mathématique), on exclurait de la capacité à comprendre le monde et surtout à faire évoluer les modèles que la science en donne quelques 999/1000 des humains. La plupart des scientifiques sincères font d'ailleurs valoir que nombre de leurs idées innovantes leur sont venues non de la computation informatiques de modèles mathématiques, mais d'idées ou intuitions bien plus générales, souvent à base d'images venues d'ailleurs, auxquelles ils ont donné une forme plus méthodique.

On objectera que pour dépasser les non-compatibilités entre RG et MQ, il faudrait que des humains, scientifiques ou non, puissent imaginer (sous forme d'images et non d'algorithmes mathématiques) un ou plusieurs types d'univers résolvant ces contradictions et ouvrant des perspectives sur un univers nécessairement plus riche et fécond que celui bien ou mal décrit par les théories dominantes. Or peuvent-ils le faire ? Plus exactement, leurs cerveaux peuvent-ils le faire?

Bien évidemment ces cerveaux ont toujours été capables de générer des images du monde à caractère non scientifique, mais religieux, mythologique, poétique. On ne peut pas refuser toute valeur à ces créations, même dans le domaine scientifique. Nous avons vu que beaucoup d'entre elles étaient à la source de grandes inventions. Mais cela ne suffirait pas à en faire des hypothèses et moins encore des théories scientifiques. Celles-ci exigent des caractères bien reconnus, généralité, falsifiabilité (possibilité d'être contredites par l'expérience), indépendance des supports, etc. Il faudrait donc que, pour imaginer y compris sous forme d'images virtuelles, un univers offrant une synthèse entre RG et MQ, les sociétés modernes soient capables de "ratisser large", c'est-à-dire de faire appel à de nombreux humains exclus du champ de la créativité scientifique par les ténors monopolisant institutionnellement ce domaine de l'esprit.

Carver Mead

Carver MeadSerait-ce possible. Ce serait en tous cas indispensable. C'est ce que vient d'affirmer avec force un inventeur de 78 ans (comme quoi l'âge ne fait rien à l'affaire), dans une "sortie" ayant fait un certain bruit au sein des geeks ou "fous de technologies" qui font la richesse de la civilisation américaine(1).

Carver Mead(2) est professeur émérite à Caltech, pionnier des composants électroniques et de la micro-électronique. Il a lancé avec succès plus de 20 entreprises dans ces domaines. Ceci ne l'empêche pas de ronger son frein, face aux blocages affectant aujourd'hui selon lui la physique fondamentale, notamment du fait de l'impossibilité à se dépasser qui paralyse les théoriciens de la RG et de la MQ. Il impute ce blocage à quelques poignées de "mandarins" comme l'on dirait en France, qui refusent à tous autres qu'eux la possibilité de présenter des hypothèses nouvelles. Néanmoins, comme ils sont en fin de carrière et assis sur les honneurs, ils ne font en ce qui les concerne aucun effort personnel de renouvellement.

Devant une assistance apparemment séduite de 3.000 jeunes ingénieurs, il a présenté récemment ses solutions à l' International Solid-State Circuits Conference (ISSCC) de San Francisco. Pour lui, il faut se décider à expliquer de façon intuitive comment chaque élément de la matière composant l'univers est en relation avec tous les autres et les affecte. Aujourd'hui les tentatives pour explorer ces interrelations sont enfouies sous "d'énormes piles de mathématiques obscures" dont rien d'utile ne peut être extrait. O combien nous approuvons ce propos, n'étant pas particulièrement à l'aise, comme beaucoup de contemporains, parmi les équations

C'est à vous, a-t-il affirmé, qu'il appartient de sortir de ces impasses. Il faut relancer la révolution scientifique inauguré dans les premières décennies du 20e siècle et bloquée depuis, moins par des difficultés propres que par les égos de ceux qui aujourd'hui se prétendent en être les héritiers. L'approche que Mead préconise semble reposer sur un retour au réalisme, notamment en matière de MQ. Non seulement il faux explorer les interrelations de la matière et des diverses forces, mais mieux comprendre la nature de l'électron. Il faut traiter les fonctions d'onde des électrons comme de réelles fonctions d'onde. Ceci imposera de reformuler les lois de l'électromagnétisme, en redéfinissant à la base la nature quantique de l'électron.

Concernant l'étude des interrelations dans la nature, Mead condamne vigoureusement l'idée fausse que l'on ne peut comprendre un phénomène qu'en l'isolant des autres, afin d'expérimenter sur lui en dehors de toutes autres influences. Cette méthode a été popularisée par Galilée. Elle a certes permis des avancées considérables, mais aujourd'hui, elle doit céder la place des approches plus globales, holistes. C'est ce que Ernst Mach avait compris pour sa part et convaincu Einstein de mettre en application. Il n'y a pas de mouvement dans l'absolu, lui aurait dit Mach. Il n'y a de mouvement que relativement à d'autres objets en mouvement. La théorie de la Relativité, relativité restreinte et relativité générale, en aurait résulté. Mach avait d'ailleurs élaboré le Principe dit de Mach, selon lequel l'inertie de chaque élément de matière est due à ses interactions avec les autres éléments de matière de l'univers.

Selon Mead, nous nous sommes écartés de ces principes. Nous traitons aujourd'hui de l'inertie d'un objet, de son énergie de masse, de la vitesse de la lumière et de tous autres concepts comme s'il s'agissait de constantes fondamentales sur l'origine desquelles nous ne nous posons pas de questions. Si nous voulons sortir d'un blocage de plus d'un siècle, il faudra se demander d'où viennent ces constantes, découvrir leurs fondements dans leurs interactions et plus généralement découvrir l'interaction de toutes les formes de matière au sein de l'univers. Cette démarche engagée, nous pourrons considérer l'univers d'une façon beaucoup plus intuitive et vaste.

Carver Mead, pour terminer, a indiqué qu'il comptait consacrer à cette nouvelle tâche toutes les années qui lui restaient à vivre. Nous lui souhaitons de vivre longtemps.

Le non-réalisme constructiviste

Oui mais dans quelles directions pourrait-on lancer ce vaste programme, de telle sorte qu'émergent des hypothèses vraiment révolutionnaires? En fait, ceux qui connaissent l'histoire des sciences contemporaines savent que l'imagination n'a jamais manqué à certains scientifiques, rejoignant en cela les auteurs de science-fiction. La première piste consiste à partir des bases de la RG et de la MQ, en recherchant les solutions théoriques qui pourraient les rendre compatibles. Il s'agirait par exemple d'imaginer ce qui fut le rêve sans solutions d'Einstein, Bohr et de Broglie, c'est-à-dire l'existence de variables cachées non locales. Nous avons montré dans des articles précédents que c'est la voie choisie, dans des directions d'ailleurs très différentes, par Dirk Pons et Ken Wharton, sans parler de nombreux autres intervenants s'exprimant dans les blogs de discussion consacrés à la physique théorique. Rien ne permet au reste de prédire à ce jour que l'une ou l'autre de ces tentatives n'aboutira pas.

La théorie des cordes pourrait être présentée comme une forme, sinon achevée mais en tous cas prolifique, d'une telle créativité théorique. Les dimensions et univers multiples y abondent. Chacun peut y faire un choix. Mais la théorie des cordes ne répond pas à la contrainte posée par Carver Mead: être compréhensible sans mathématiques par l'homo sapiens ordinaire.

D'autres voies pourraient être explorées en rejetant des convictions profondément implantées par l'évolution dans les cerveaux des sapiens, notamment celles relatives au temps et à l'espace. Le temps pourrait ne pas exister, l'espace pourrait être tout autre. Mais que mettre à la place, soit dans les apparences, soit au coeur même des phénomènes? Là encore existent aujourd'hui de nombreuses hypothèses scientifiques. Elles n'ont jamais encore cependant réussi à s'imposer. Elles doivent satisfaire aux contraintes de tous les jours concernant notre existence sur Terre. Elles doivent aussi apporter des réponses crédibles aux grands phénomènes cosmologiques identifiés par les instruments d'aujourd'hui; le rayonnement d'arrière-fond cosmologique, l'expansion apparente des astres et ses causes possibles, les trous noirs, la matière invisible.

Une autre voie de découverte consisterait à remettre en cause les instruments scientifiques et en arrière-plan, l'organisation des cerveaux ou des sociétés qui conçoivent et utilisent ces instruments. Elle reposerait sur un postulat simple: on ne découvre, à peu de choses près, que ce que l'on savait déjà. Pour vraiment bouleverser le regard, il faudrait bouleverser non seulement les concepts et les instruments mais les hiérarchies sociétales qui s'en sont servi pour construire leur pouvoir.

On retrouverait ainsi les propos de Mead. Il s'agit là encore d'une vieille ambition, inscrite dans l'histoire. Mais pour ne pas en revenir aux prophètes et à leurs mythologies, il faudrait rester en conformité avec les bases méthodologiques de la science expérimentale. Une voie souvent évoquée consisterait à patienter jusqu'à la mort des prix Nobel et académiciens des sciences actuels, en attendant que de jeunes générations, convenablement féminisées, les remplacent. Mais la voie serait longue et incertaine. Rien ne permet d'affirmer, sauf dans le cadre d'un jeunisme ou d'un féminisme de principe, que les jeunes générations pourraient – rapidement – voir plus clair que leurs aînées.

Le non réalisme constructiviste pourrait en ce qui le concerne permettre d'avancer plus rapidement. De quoi s'agit-il? Par non-réalisme, entendons la position philosophique selon laquelle il n'existe pas une réalité en soi qui s'imposerait inévitablement aux humains. Ceci au sujet de l'univers comme de tous autres objets étudiés par les sciences. Les non-réalistes dénoncent dans cette prétendue réalité en soi la façon dont les pouvoirs actuellement dominants cherchent à pérenniser les idées qui confortent leur pouvoir. Les non-réalistes ne veulent pas cependant verser dans le solipsisme, selon lequel il n'est de réalité que celle conçue par les esprits des sujets. Ils font donc confiance aux processus constructifs et de mise à l'épreuve auxquels depuis les origines de la vie, les organismes biologiques ont eut recours pour élaborer un milieu "artificiel" conforme à leurs exigences de reproduction et d'expansion.

Aujourd'hui, dans le cadre de ce que nous avons pour notre part nommé des systèmes anthropotechniques, se construisent plus ou moins spontanément, sur le mode darwinien du hasard et de la nécessité, des entités qui pourraient être profondément révolutionnaires au regard des humains, des technologies et des connaissances d'aujourd'hui – révolutionnaires dans un sens dont par définition nous ne pourrions rien dire aujourd'hui. Certains observateurs vont plus loin et suggèrent que ces nouvelles entités existent déjà sous forme cryptique, qu'elles sont déjà discrètement à l'œuvre dans notre jardin, le transformant d'une façon non clairement explicitée mais efficace.

Il est légitime d'imaginer dans cette hypothèse que ces entités, de plus en plus empreintes d'artificialisation, au plan biologique, cérébral et instrumental, pourraient brutalement inventer des façons de concevoir l'univers profond qui lèveraient une partie des indéterminations et des contradictions de la science actuelle au sujet de ce même univers. Ce ne serait évidemment pas alors l'univers qui aurait changé, univers dont nous ne pourrons jamais rien dire de définitif, mais notre façon de le voir, de nous y insérer, notre façon d'y exister, au sens fort de ce terme. Finalement, il s'agirait, que l'on nous pardonne ce jargon, d'un non réalisme constructiviste s'appliquant dans les trois grands domaines de la cosmologie, de la biologie et de la technologie. Ce serait aussi un non-réalisme relativiste, autrement dit renvoyant aux entités qui l'aurait construit et à elles-seules, non à une autorité extérieure prétendant s'ériger en juge suprême.

Notes
(1) Voir article http://www.theregister.co.uk/2013/02/20/carver_mead_on_the_future_of_science/
(2) Carver Mead http://en.wikipedia.org/wiki/Carver_Mead

Partager cet article
Repost0
22 février 2013 5 22 /02 /février /2013 11:55

Appelons modèles théoriques de l'univers ceux qui proposent des descriptions du cosmos à son échelle la plus large qui A. ne soient pas brutalement contradictoires avec les connaissances scientifiques bien établies et B. sont encore trop abstraites pour pouvoir être vérifiées expérimentalement, tout au moins dans l'état des instruments d'observations actuels.


Jean-Paul Baquiast 21/02/2013


Prenons un exemple simple, consistant à faire l'hypothèse que l'univers est infini, c'est-à-dire sans limites dans le temps et dans l'espace. Les observations dont on dispose ne permettrait pas aujourd'hui de confirmer cette hypothèse. Elles montrent au contraire, par exemple grâce au satellite Planck observant ce que l'on nomme le Fonds diffus cosmologique (Cosmic Background Radiation Anisotropy ) qu'il existe une limite dans le temps et donc dans l'espace au delà de laquelle les observations sont impossibles. Les cosmologistes en déduisent qu'en l'absence de possibilités instrumentales, il n'est pas possible aujourd'hui de faire d'hypothèses vérifiables relatives au caractère fini ou infini de l'univers. Ceci n'interdit pas la recherche de modèles théoriques postulant le caractère infini de l'univers. Ces modèles s'opposeront dans ce cas à d'autres modèles théoriques éventuels, eux-aussi invérifiables, postulant l'existence de limites à l'univers, liées à telle ou telle propriété qui lui seraient attribuée.

Pour éviter de verser dans la littérature ou dans la mythologie, les modèles théoriques de l'univers doivent reposer sur de solides bases mathématiques. Cette exigence les réserve aux physiciens mathématiciens et en exclu le grand public. C'est le cas de la théorie des cordes, qui depuis quelques décennies propose des modèles de l'univers capables d'unifier deux domaines de la physique complètement vérifiés à ce jour mais incompatibles, la mécanique quantique et la relativité générale. Il s'agit de la gravitation quantique. Or si certains aspects de la théorie des cordes paraissent aujourd'hui susceptibles de vérification expérimentale, ce n'est pas le cas de l'ensemble de ses propositions. Elle postule par exemple l'existence d'un nombre indéterminé de dimensions d'espace ou même d'univers (le multivers).

Il s'en suit que de nombreux cosmologistes, notamment ceux qui travaillent avec l'aide des grands instruments d'observation moderne, proposent de renoncer entièrement non seulement à la théorie des cordes mais à la cosmologie théorique dans son ensemble. On serait tenté de les suivre, ou à tout le moins à se méfier de toutes spéculations par trop éloignées de ce qu'on appelle le réel observable. Mais d'autres chercheurs, dont ne saurait suspecter le sérieux, affirment au contraire que la physique, comme d'ailleurs les sciences en général, ne saurait se passer de modèles théorico-mathématiques, aussi exotiques que ceux-ci puissent paraître. C'est le cas de Léonard Suskind. Dans un interview récent publié par le NewScientist, il rappelle que personne n'est en droit d'interdire à un scientifique de faire des hypothèses théoriques, car il n'est pas possible d'affirmer que celles-ci ne seront pas un jour mises en défaut par d'autres hypothèses, voire testables expérimentalement 1).


La conjecture Cordus

Dans le cadre de cet article consacré au thème des modèles théoriques de l'univers, nous ne voudrions pas discuter de la pertinence de la théorie des cordes – ce que bien d'autres ont fait bien mieux que nous – mais présenter une théorie, ou plus exactement une hypothèse théorique ou conjecture, qui dans une certaine mesure s'en rapproche. Il s'agit de la conjecture Cordus, proposée par un physicien néo-zélandais, Dirk Pons 2). Cette conjecture, comme le montre les échanges qui lui sont consacrés, repris dans la rubrique « sources » in fine, est loin de faire l'unanimité. Elle est d'artilleurs très peu connue. Son auteur affirme qu'elle pourra prochainement faire des prédictions qui seront falsifiables, autrement dit soumises à l'épreuve de l'expérience. Mais ce n'est pas encore le cas actuellement. Pourquoi donc en ce cas s'y intéresser ?

Pour deux raisons. La première est parce qu'elle propose des entités du monde sub-atomique, généralement désignées dans les manuels par le terme de « particule », un modèle qui résoudrait le grand mystère de la mécanique quantique (MQ), le principe d'indétermination selon laquelle il n'est pas possible de connaître à la fois la position et la vitesse d'une particule massive donnée. Mais la seconde raison justifiant de s'intéresser à Cordus est d'ordre méthodologique. En approfondissement les explications données par Dirk Pons, son concepteur, on voit clairement comment des théoriciens imaginatifs tels que lui élaborent de novo des hypothèses ambitionnant de résoudre, parfois dans le plus grand détail, les questions encore sans réponses.

Sur le plan du fond, la conjecture Cordus s'inscrit dans les modèles « réalistes » de l'univers. Elle affirme qu'existent des variables cachées non locales (Non-local hidden-variable, NLHV) permettant, une fois mises en évidence, de déterminer non seulement l'état de telle particule en termes de position et de vitesse, mais tous les autres problèmes incompatibles avec le réalisme de la physique ordinaire observés par la physique quantique. On mentionne généralement les actions à distance hors de l'espace temps einsténien, telles qu'elles apparaissent à l'occasion de l'intrication, ou la prétendue intervention de la conscience de l'observateur dans la résolution de la fonction d'onde caractérisant un observable quantique. C'était on le sait la question de fond évoquée par le paradoxe EPR (Einstein-Podolsky-Rosen) auquel Einstein avait consacré ses dernières recherches théoriques. Aujourd'hui encore un certain nombre de physiciens, s'inspirant de l'interprétation dite de Bohm- Broglie, pensent pouvoir montrer, ou tout au moins pouvoir rechercher, l'existence de telles variables cachées. 3)

Le public s'intéressera surtout au fait que le modèle d'univers proposé par Cordus résoudrait la question du temps, ou plutôt de son apparente irréversibilité. Cordus veut montrer qu'à certaines échelles, le temps n'existe pas. Ceci n'est pas nouveau, puisque les interactions dynamiques sont invariantes en fonction du temps, aussi bien pour la mécanique newtonienne que pour la MQ. Cordus veut aller plus loin, en montrant que le temps est une création anthropomorphique ou, plus exactement liée aux structures complexes de la matière, telles qu'elles sont apparues au cours de l'évolution de l'univers, et notamment sur Terre avec la matière vivante. Il s'agit là aussi d'un autre des grands « mystères » résultant de la MQ, pour laquelle les causalités liées au temps sont des constructions apparentes ne découlant pas de la réalité profonde de l'univers, si l'on peut parler de réalité en ce domaine.


Une particule spécifique

Pour justifier ses affirmations, Cordus propose une description réaliste de la particule. Superficiellement, cette description ressemble un peu à celles proposées par la théorie des cordes. Mais ses concepteurs l'ont voulu beaucoup plus simple, tout au moins pour qui cherche à l'exprimer de façon imagée, sans recourir nécessairement à des équations. Pour la conjecture, toutes les particules aujourd'hui identifiées, photons, électrons, protons ne sont pas ponctuelles (des points à zéro dimension). Elles ont une structure interne spécifique, d'où le nom que leur a donné Dirk Pons : « particules cordus », ceci pour les différencier des particules de la physique ordinaire. La conjecture définit la structure interne et externe de la particule cordus lui permettant de se comporter en variable cachée non locale (NLHV) lors des phénomènes d'intrication et de superposition onde-particule observés par la MQ. Elle montre ensuite comment ces particules peuvent s'agréger pour former les atomes, molécules et autres organismes de la physique macroscopique.

Selon Dirk Pons, la validité de cette l'hypothèse de structure a pu être testée avec succès (toujours théoriquement évidemment), puis précisée face aux problèmes posés par un grand nombre de phénomènes physiques. Elle a toujours conservé sa cohérence logique et sa capacité de répondre à ces problèmes. Nous n'avons ni le temps ni la compétence pour entrer dans la discussion mathématique et logique des arguments proposés. D'autres scientifiques l'ont apparemment déjà fait comme le montre certains arguments présents sur le web. On peut penser que, si la conjecture repose sur des vices évidents (des biais, sur la terminologie anglaise) elle sera vite abandonnée. Dans le cas contraire, elle fera de plus en plus parler d'elle.

Nous n'entrerons pas ici dans la description des structures interne et externe de la particule cordus, trop complexes pour figurer dans cet article. Disons seulement qu'au plan interne chaque particule cordus disposerait de deux terminaisons réactives séparée par une très petite distance finie, chacune de ces terminaisons se comportant comme une particule dans ses interactions avec le milieu extérieur. Elles sont reliées par une « fibrille » Celle-ci serait une structure dynamique persistante mais qui n'interagirerait pas avec la matière. Elle assurerait instantanément la connectivité et la synchronicité entre les deux extrémités, celles ci étant « énergisées » chacune à leur tour à des fréquences données. Au plan externe, les extrémités réactives émettraient une ou plusieurs lignes de champs au sein de l'espace, dans les domaines de l'électrostatique, du magnétisme et de la gravitation.

Ces caractères devraient permettre d'expliquer comment, la particule n'étant ni un point ponctuel ni une onde, elle peut selon les conditions de l'expérimentation, notamment dans l'expérience des fentes de Young, apparaitre de façon duale au plan macroscopique. Par ailleurs n'étant pas enfermée dans l'espace-temps einsténien, elle peut interagir avec elle-même, ou avec d'autres particules associées, sans considérations de temps et de distance, dans le cadre des expériences sur l'intrication.

N'en disons pas plus ici, mais bornons nous à citer un propos de Dick Pons, que l'on retrouvera dans les réactions aux textes mentionnés dans la rubrique Sources : « Si l'explication fournie par Cordus était correct, le photon ne serait ni une particule ni une onde, mais plutôt une structure spécifique dotée de champs discrets. Nous pouvons ainsi expliquer pourquoi son comportement dépend de la façon dont il est observé, ce qui est également fascinant. Quand elle est regardée à partir de la perspective Cordus, son comportement est parfaitement naturel. Son étrangeté apparente ne tient pas à une étrangeté de la nature, mais au fait que la MQ n'offre pas une bonne description de la réalité. Elle ne dispose pas des concepts nécessaires pour ce faire. Nous pensons pour notre part que nous disposons maintenant des mots et des concepts permettant d'exprimer ce qu'est réellement le photon. Au moins au niveau d'une réalité se situant au dessous du monde décrit par la MQ ».

Sans être physicien, on voit immédiatement le point faible du raisonnement qui fonde la conjecture Cordus. La mariée est trop belle, si l'on peut dire. Dirk Pons et son équipe ont dessiné une particule ad hoc, susceptible de répondre au mieux aux paradoxes actuels de la physique. Il n'y a pas lieu ensuite de s'étonner qu'elle y réponde. L'ensemble du processus peut certes s'abriter derrière les complexités d'un formalisme mathématique au moins aussi redoutable (semble-il) que celui de la MQ, désarmant à l'avance beaucoup de critiques. Mais les sceptiques feront valoir que tant que ceci restera théorique, sans preuves expérimentales probantes, ils resteront sceptiques. Ceci nous permet de retrouver la question posée dans ce petit article : quel crédit attribuer aux modèles d'univers purement théoriques ? La réponse proposée par Leonard Suskind dans l'interview cité ci-dessus peut-elle trouver une application en ce cas ?


Conclusion

Il est difficile de prévoir ce que deviendra la conjecture Cordus, parmi les très nombreuses autres propositions formulées par des chercheurs imaginatifs, dans les blogs spécialisés consacrés à la physique théorique. Ce qu'il nous paraissait intéressant à montrer dans cet article était la façon dont un physicien indiscutablement doué, tant en physique théorique qu'en physique expérimentale, procède quand il cherche à cherche à dépasser les limites des théories en vigueur. Il invente véritablement un être théorique que ni lui ni personne n'avait eu jusqu'à présent la possibilité, d'observer. Il lui donne les caractères ad hoc permettant à cette entité de répondre, sur le papier, à des questions non encore résolues, voire non encore posées. Il lui donne ensuite un nom de baptême et imagine ce que pourrait être la vie ultérieure de cet enfant dans le monde complexe des sciences physiques.

Qu'espère-t-il ce faisant ? Il espère un hasard favorable, tel que tous ceux ayant toujours permis l'évolution des idées scientifiques, qui sont oeuvre collective. Un jour quelqu'un d'autre que lui observera ou croira observer sa créature, en constatant qu'elle répond aux conditions spécifiées. Alors ce serait tout un pan du "réel" qui sortirait de l'ombre et imposerait sa présence aux scientifiques et au grand public.4) Un prix Nobel pourrait en résulter au profit de l'inventeur.

Ceci peut paraître un rêve illusoire. Mais n'est-pas de cette façon « bizarre » (weird) que se sont imposées les grandes découvertes, comme si la nature dictait aux cerveaux de certains humains, produits de cette même nature, de nouvelles idées permettant de mieux la comprendre, de mieux la construire ?


Notes.
1) « You cannot stop thinking about something because somebody has a philosophical prejudice about the way science should be done. What constitutes good science will ultimately be decided by the scientists doing the work, and not by philosophers or kibitzers - which is Yiddish for people who stand around yakking when they don't really have anything to say.
The multiverse idea could be falsified if someone came up with a solid mathematical argument for the value of dark energy that does not rely on the existence of a multiverse.
.Leonard Suskind »

Voir interview http://www.newscientist.com/article/mg21729040.300-into-the-impossible-with-a-father-of-string-theory.html

2) Dirk Pons Références http://www.mech.canterbury.ac.nz/people/Pons.shtml

3) Cf Wikipedia : En mécanique quantique, l'interprétation de Bohm a été formulée en 1952 par le physicien David Bohm. Il s'agit d'un développement de la Théorie de l'onde pilote imaginée par Louis de Broglie en 1927. Elle est aussi connue sous les noms d'interprétation ontologique et d'interprétation causale. La théorie de Bohm est souvent considérée comme la théorie quantique à variables cachées de référence, même si cette description est rejetée par l'ensemble des physiciens bohmiens, dont John S. Bell et d'autres physiciens et philosophes. Elle entend donner une vision réaliste et déterministe de la mécanique quantique, en opposition à l'interprétation de Copenhague.

4) Réel "réel", dans la perspective du réalisme des essences, réel "construit", dans la perspective de la conceptualisation relativisée prosée par Mioara Mugur Schachter et retenue par nous sur ce site. .


Sources pour Cordus
* Is time a dimension ?http://cordus.wordpress.com/
* http://physicsessays.org/doi/abs/10.4006/0836-1398-25.1.132
* http://vixra.org/abs/1106.0027
* http://www.vixra.org/

* Par ailleurs, Cordus est discuté dans les interventions de lecteurs suscités par l'article Quantum shadows ci-après
http://www.newscientist.com/article/mg21728971.600-quantum-shadows-the-mystery-of-matter-deepens.html

 


Partager cet article
Repost0
14 février 2013 4 14 /02 /février /2013 09:20


Jean-Paul Baquiast 13/02/2013


Joseph-Louis Lagrange (25 janvier 1736 – 10 avril 1813)

Ken Wharton, physicien quantique américain jusqu'ici peu connu, sauf dans les blogs spécialisés, vient de lancer ce qui pourrait être un véritable pavé dans la mare – ce qui pourrait aussi donner lieu à un flop vite oublié. Dans un essai disponible en ligne, que nous vous invitons à consulter, résumé par un court article dans le NewScientist, il invite à renoncer aux méthodes très généralement utilisées par les scientifiques pour étudier l'univers et prédire son évolution. Ces méthodes, selon lui, s'inspirent trop directement de la façon dont travaille aujourd'hui la science moderne. Celle-ci construit des modèles du monde concrétisées par des jeux d'équations, soumet ces équations à divers calculs informatiques et met à l'épreuve de l'expérience les nouveaux modèles ainsi obtenus. Ceux de ces derniers qui résistent à l'épreuve expérimentale servent à construire de nouvelles représentations du monde.

Cette méthode est à la base de la science expérimentale. Elle n'est donc pas critiquable en soi. L'abandonner ramènerait la science à l'ère métaphysique. Mais elle pourrait être dangereuse, si elle s'inspirait excessivement d'un modèle général de référence qui ne serait pas exact, ou plutôt qui ne serait pas suffisant. Pour Ken Wharton, ce modèle est le calculateur, universellement utilisé dans les sciences aujourd'hui, et en perfectionnements continuels. Si cet outil donne aux scientifiques comme aux ingénieurs un instrument irremplaçable, il ne faut pas aller jusqu'à considérer que l'univers lui-même fonctionnerait comme un ordinateur géant. L'idée est souvent présentée aujourd'hui par les cosmologistes. Pour ceux qui s'en inspirent, même si ce que l'on sait de l'univers ne permet évidemment pas d'identifier ici ou là des organes de calcul informatique à l'oeuvre, les systèmes naturels que l'on observe sont construits et évoluent conformément à des règles de type informatique. Ainsi en est-il par exemple d'une galaxie. C'est ce qui nous permet de modéliser sur ordinateur, avec les fonctions mathématiques appropriées, l'existence et l'évolution de tels êtres.

Or Ken Wharton nous met en garde. Aussi productive que soit la comparaison de l'univers avec un ordinateur, elle peut conduire la science à de graves impasses. Elle s'inspire de processus algorithmiques déterministes bien illustrés par le « modèle du monde » présenté par Newton. Même si depuis Newton, les modèles d'univers s'en inspirant ont été considérablement affinés, ils restent présents dans tous les calculs informatiques utilisées par les astronomes ou par les sciences de l'espace pour modéliser les trajectoires des astres et des engins interplanétaires. Il ne serait donc pas raisonnable de les rejeter. Mais depuis les premiers pas de la physique quantique dans les années trente du 20e siècle, le monde scientifique sait que d'autres descriptions de l'univers doivent y être ajoutées. Elles font elle aussi appel à des modèles mathématiques et à des simulations sur ordinateur, mais – sauf à dire que l'univers est un ordinateur quantique, ce qui ne veut pas dire grand chose à ce jour (voir Note 1 ci-dessous), elles obligent à renoncer aux postulats déterministes et réalistes de la physique et de la cosmologie macroscopiques.

La physique quantique est à la base de grands succès, y compris dans le domaine technologique. Elle n'a jamais à ce jour été mise en défaut. Cependant elle n'a pas encore pu présenter de modèles d'univers vérifiables expérimentalement, selon lesquels celui-ci n'évoluerait pas comme s'il était un calculateur géant, mais selon d'autres lois encore mal précisées aujourd'hui. Il en résulte que le monde de la science, en théorie comme expérimentalement, doit prendre acte de deux grandes méthodes permettant de représenter l'univers et son évolution, celle du modèle newtonien ou néo-newtonien tel que mentionné ci-dessus et celle découlant de la physique quantique, que l'on pourrait résumer par le concept d'indétermination proposé avec le succès que l'on sait par Heisenberg. Ces deux méthodes se sont révélées encore incompatibles à ce jour, malgré les efforts des théoriciens de la gravitation quantique.

Or pour Ken Wharton, il s'agit là d'une sorte de scandale, car il existe depuis bientôt 300 ans des modèles mathématiques permettant de représenter l'univers d'une façon aussi objective que possible, c'est-à-dire aussi proches des vérifications expérimentales que possible. Ces modèles permettraient d'évacuer les grandes incohérences du modèle d'univers darwinien, liées notamment à l'impossibilité pratique de calculer l'évolution de l'univers dans le temps. Elles évacueraient ainsi le concept de temps, lié à l'espace-temps newtonien repris par Einstein. De ce fait, une partie des contradictions avec la physique quantique disparaîtraient, dans la mesure où celle-ci ne s'inscrit pas dans le cadre de l'espace-temps newtonien-einstenien. Rappelons que les expériences sur l'intrication, par exemple, obligent à postuler la « réalité » d'un univers où des particules peuvent interagir sans référence au temps et à l'univers physique auxquels nous sommes habitués (ce à quoi Einstein n'a jamais cru, évoquant une bizarre action à distance – spooky action at a distance, et évoquant des variables cachées, jamais encore découvertes, permettant d'expliquer ce phénomène).

Quels sont les modèles auxquels fait référence Ken Wharton? Ce sont ceux proposés par Fermat (repris sous le nom de principe de Fermat) et étendus par les mathématiciens Lagrange et Maupertuis, sous le nom de principe de moindre action. Fermat avait proposé son principe pour modéliser la propagation d'un rayon lumineux dans des milieux variés, par exemple l'air et l'eau. Il n'est pas possible de calculer a priori la trajectoire quelconque d'un tel rayon, à partir d'une source donnée. On ne connait pas en effet les milieux traversés ni leurs indices de réfraction. Tout au plus peut-on le faire a posteriori, une fois que l'on s'est donné un point d'arrivée. On constate alors que le rayon a pris la trajectoire la plus directe, compte tenu des résistances rencontrées. Lagrange a étendu le principe de moindre action à la simulation de n'importe quel système mécanique, ce qui a permis aux ingénieurs d'optimiser considérablement la conception de ces systèmes.

Mais pourquoi ne pas avoir étendu à la modélisation de l'univers le principe de Fermat-Lagrange? Parce que, répond Ken Wharton, les cosmologistes, trop pénétrés de l'algorithmique déterministe néo-newtonienne, supposée être celle d'un univers conçu comme un ordinateur géant, ont refusé et refusent encore des modèles d'évolution refusant de postuler un point d'arrivée, des trajectoires et un temps définis a priori.

En bon scientifique cependant, Ken Wharton ne se borne pas à reprocher à la cosmologie et à la physique actuelle les impasses auxquelles les mène une méthodologie trop limitée. Il propose un nouveau modèle mathématique qui selon lui, pourrait être développé et produire des résultats vérifiables expérimentalement. Si ce travail aboutissait, on pourrait alors juger de l'intérêt de la nouvelle méthode. Serait-elle compatible avec les postulats et résultats de la physique quantique? Définirait-elle de nouvelles variables cachées qui conduirait à un nouveau regard réaliste sur le monde. Qu'en serait-il enfin de la perception du temps que nous avons tous? Faudrait-il la ranger au rayon des illusions anthropomorphiques, du type de celles que Ken Wharton dénonce a propos de la croyance selon laquelle l'univers fonctionnerait comme un ordinateur?

On ne peut que souhaiter voir Ken Wharton, dans les prochains mois, commencer à répondre en profondeur à ces questions. Pour notre part, nous essaierons de suivre attentivement ce qu'il en sera.

Notes

1. La science et les instruments

Au fur et à mesure que les humains développaient de nouvelles machines, ils ont eu tendance à postuler que l'évolution de l'univers, telle qu'ils la percevaient, obéissait aux mêmes règles que celles mises en oeuvre par ces machines. C'est ainsi que les machines mécaniques ont inspiré à Newton son « Système du monde » décrit dans le 3e tome de ses « Philosophiae naturalis principia » consacré aux mouvements des astres et à la loi de la gravitation universelle. Plus tard, l'entrée en service des machines à vapeur a conduit de nombreux scientifiques a postuler que le Premier et le Second principe de la thermodynamique  pouvaient valablement s'appliquer à l'histoire de l'univers, depuis le Big Bang caractérisé par une entropie minimum jusqu'à l'explosion de la vie, phénomène néguentropique s'inscrivant dans une entropie croissante. Nous avons précédemment signalé que pour certains physiciens d'ailleurs, les lois de la thermodynamique sont encore les plus appropriées pour caractériser les phénomènes cosmologiques au niveau macroscopique.

Inutile d'ajouter qu'avec l'invention des calculateurs, qu'ils soient analogiques ou digitaux, et leurs succès ininterrompus dans tous les domaines technologiques et scientifiques, les physiciens ont pu montrer que la plupart des processus macroscopiques identifiés dans l'univers pouvaient être simulés par des calculs informatiques. Ainsi en est-il aujourd'hui du mouvement des planètes et des astéroïdes, que l'informatique permet de décrire et de prévoir bien plus rigoureusement que ne le ferait la mécanique de Newton. Il est dont tentant, lorsque l'on veut extrapoler le regard à l'ensemble de l'univers, de supposer que, des plus petits aux plus étendus, les mécanismes naturels pourraient être analysés en termes de processus computationnels.

Ceci s'exprime de façon imagée par l'affirmation selon laquelle l'univers serait un immense calculateur. Ceci ne veut pas dire que derrière chaque action ou réaction se trouveraient des petits calculateurs qui les piloteraient, l'ensemble étant intégré par un calculateur géant définissant à tout instant le résultat final de tous ces calculs. Tout se passerait cependant comme si les forces physiques en oeuvre, et les grandes lois dites fondamentales par lesquelles elles s'expriment, pouvaient être simulées sans faute sur un ordinateur géant.

Les perspectives ouvertes par les calculateurs quantiques vont bien plus loin à cet égard. On ne sait pas encore très bien ce que permettrait de faire un calculateur quantique comportant des milliers ou millions de bits quantiques. On peut supposer au minimum que les possibilités de calcul ouvertes par un de ces systèmes permettraient aux scientifiques de mieux simuler les comportements complexes de l'univers. Au maximum, on peut supposer que l'univers lui-même serait composé d'éléments se comportant comme des calculateurs quantiques. Ceci serait moins surprenant que postuler qu'il fait appel à des calculs électroniques classiques, puisque par définition l'univers, en fonction des hypothèses de la physique quantique, est constitué de particules pouvant se comporter comme des bits quantiques. C'est ce qu'a pu affirmer Seth Lloyd, spécialiste du calcul quantique. Selon lui, affirmer que l'univers est un calculateur quantique constitue une vérité scientifique indiscutable. Resterait évidemment à montrer dans le détail comment s'expriment les calculs d'un tel ordinateur, et les conséquences en résultant concernant l'évolution globale de l'univers – y compris quand il s'agira de son avenir à court ou long terme. (Voir notre présentation de « Programming the universe » par Seth Lloyd http://www.automatesintelligents.com/biblionet/2006/avr/lloyd.html.

Restent cependant à l'écart des simulations permises par l'appel à ces divers types de calculateurs la compréhension des phénomènes de la physique quantique, tels que l'indétermination, la superposition d'état ou l'intrication. Selon le principe d'incertitude de Heisenberg, l'univers n'est ni prévisible ni déterministe. Plus précisément, il n'est pas possible de connaître à la fois la position d'une particule et sa vitesse. Ceci ne gène pas les sciences macroscopiques, qui manipulent avec précision de grandes quantités de particules (y compris dans les calculateurs électroniques). Elles s'appuient sur les probabilités statistiques s'attachant aux grands nombres. Mais la difficulté commence quand il s'agit d'étudier des particules isolées – le concept même de particule devant être nuancé puisque l'objet de ce nom pouvant être à la fois une particule ou une onde. Si l'on voulait simuler sur ordinateur le comportement de détail, voire la nature, d'une particule quantique – autrement donc qu'à travers des moyennes statistiques, on ne pourrait pas le faire. Il n'est donc pas évident d'affirmer dans ces conditions que l'univers dans son ensemble pourrait être régi par des processus s'apparentant à ceux des calculateurs, tels du moins que nous les connaissons.

Le même doute pèse sur d'autres phénomènes cosmologiques, tels que ceux évoqués par les concepts de big bang, inflation, expansion, trou noir, ou matière sombre. Les cosmologistes hésitent encore à les décrire avec précision. Ils seraient donc incapables d'imaginer des processus computationnels pouvant les expliquer, et moins encore les produire. Dans ces domaines, affirmer que l'univers se comporte comme un grand calculateur, fut-il proche de ce que nous appelons un calculateur quantique, relèverait non de la science mais de la poésie

2) Le modèle d'univers lagrangien selon Ken Wharton

Nous traduisons ici, en résumant un peu, ce qu'en dit Wharton dans son essai

Le principe de Fermat est aisé à poser. Entre deux points, quels qu'ils soient, le rayon lumineux prend le chemin le plus rapide. Ainsi quand un rayon traverse différents matériaux entre un point X et un point Y, le chemin emprunté sera le plus court possible, en comparaison de tous les autres chemins allant de X à Y. Si un rayon est coudé en passant de l'air à l'eau, ce n'est pas du à un enchainement de cause et d'effet, mais parce que c'est globalement plus efficace.

Aussi élégante que soit cette description, elle n'entre pas dans le Schéma Newtonien. Au lieu de poser des données initiales (par exemple la position et l'angle) le principe de Fermat requiert des entrées logiques qui sont à la fois initiales et finales (les positions de X et Y). L'angle initial n'est plus une donnée mais un résultat logique. Au lieu d'états qui évoluent avec le temps, le principe de Fermat aboutit à une comparaison entre des chemins entiers. Ces chemins ne peuvent évoluer avec le temps, du fait qu'ils couvrent déjà l'ensemble de l'espace de temps considéré.

Cette méthode n'est pas limitée aux rayons lumineux. Au 18e siècle, Maupertuis, Euler et Lagrange ont réussi à faire entrer l'ensemble de la physique classique dans un principe général de minimisation ****. En général, la quantité globale à minimiser est pour eux l' « action » * Comme le principe de Fermat, la Mécanique de Lagrange n'entre pas dans le Schéma de Newton. Elle représente donc une méthode alternative pour aborder le monde physique, méritant ainsi le qualificatif de Schéma Lagrangien.

Comme le Schéma de Newton, le Schéma de Lagrange correspond à une technique mathématique permettant de résoudre des problèmes physiques. Dans les deux schémas, il faut d'abord se donner une représentation mathématique de la réalité physique, en y inscrivant les évènements sous forme de paramètres. A cet égard le Schéma de Lagrange est le plus tolérant des deux. L'on peut choisir la paramétrisation la plus convenable sans changer les règles subséquentes. Au lieu d'un « état » , l'objet mathématique clef est un scalaire ** appelé le Lagrangien (ou dans le cas des champs classiques continus la « densité lagrangienne » L. *** L est une fonction de ces paramètres et de leurs dérivées locales.

Deux démarches sont nécessaires pour retrouver le monde physique à partir de L. Un premier pas consiste à contraindre L aux limites d'une région de l'espace-temps (c'est-à-dire définir X et Y dans la formulation de Fermat). Dans les champs continus, on définit des paramètres de champ continu. Mais on se limite aux paramètres frontières. Les paramètres intermédiaires et les dérivés des paramètres frontières peuvent avoir toutes les valeurs possibles à ce stade.

Un second pas consiste à choisir l'une de ces possibilités (on leur assigne des poids probabilistes) Ceci s'obtient en faisant la somme des densités lagrangiennes où que ce soit à l'intérieur de la frontière afin d'obtenir un nombre correspondant à l'action S. La solution classique consiste à minimiser l'action ****. On retrouve alors la réalité physique.

Précisions de JPB
* Maupertuis écrit ceci à ce sujet dans Principe de la moindre quantité d'action pour la mécanique (1744) « L'Action est proportionnelle au produit de la masse par la vitesse et par l'espace. Maintenant, voici ce principe, si sage, si digne de l'Être suprême : lorsqu'il arrive quelque changement dans la Nature, la quantité d'Action employée pour ce changement est toujours la plus petite qu'il soit possible. » . Ici, l'action est notée S.
** scalaire ou, pour simplifier, mesure. En algèbre linéaire, les nombres réels qui multiplient les vecteurs dans un espace vectoriel, sont appelés des scalaires.
***La fonction L est appelée densité lagrangienne. Elle dépend du champ q et de ses dérivées temporelle et spatiale.
**** Rechercher la moindre action

3. Les actions selon Michel Gondran

Dans un ouvrage à paraître, ainsi que dans deux articles publiés par Arxiv, Michel Gondran, physicien et ancien président de l'Académie interdisciplinaire européenne des sciences, n'a pas manqué de signaler l'importance du principe de moindre action et de ses applications dans les sciences physiques, y compris en physique quantique.

Mais il va plus loin que ne le fait Ken Wharton. Il montre qu'il existe en mécanique classique trois actions (et non deux) correspondant à différentes conditions de limites (boundary conditions): les deux actions bien connues: l'action Euler-Lagrange classique (Scla) action qui relie la position initiale x0 à sa position x dans un temps t, l'action Hamilton-Jacobi S(x;t) qui relie une famille de particules Scla(x) à leurs diverses positions au temps t, et une troisième action, qu'il propose de prendre en compte, non seulement en physique quantique mais en physique ordinaire, l'action déterministe S(x; t; x0; v0). Elle lie une particule dans la position initale x0 et avec la vitesse initiale v0 à sa position x au temps t.

Ces précisions montrent que Ken Wharton serait encore loin d'avoir épuisé la richesse d'un sujet certes difficile mais tout à fait d'actualité.

Pour retrouver le point de vue de Michel Gondran, ce à quoi nous incitons le lecteur, faire:
- Michel Gondran The Euler-Lagrange and Hamilton-Jacobi actions and the principle
of least action
http://jp.arxiv.org/pdf/1203.2736
- Article dans Computer science From interpretation of the three classical mechanics actions to the wave function in quantum mechanics http://ics.org.ru/eng?menu=mi_pubs&abstract=2078

Références concernant Ken Wharton
- L'essai de Ken Wharton The Universe is not a computer http://cpr-quantph.blogspot.fr/2012/12/12117081-ken-wharton.html
- Son article dans le New Scientist
http://cpr-quantph.blogspot.fr/2012/12/12117081-ken-wharton.html
- son article dans Arxiv (difficile) http://arxiv.org/abs/1301.7012

Pour en savoir plus
- Lagrangien http://fr.wikipedia.org/wiki/Lagrangien
- Intégrale de chemin http://fr.wikipedia.org/wiki/Int%C3%A9grale_de_chemin
- Principe de Fermat http://fr.wikipedia.org/wiki/Principe_de_Fermat
- Principe de moindre action http://fr.wikipedia.org/wiki/Principe_de_moindre_action
- Rappel de mécanique analytique. Le lagrangien
http://fr.wikiversity.org/wiki/Rappels_de_m%C3%A9canique_analytique/Lagrangien

Note au 13/02/2013, 20h

Kenneth Wharton nous écrit ce jour:

"I will mention that the Hamilton-Jacobi action is fully aligned with the "Newtonian Schema", not the "Lagrangian Schema". That so-called "action" assumes that the classical equations of motion are necessarily correct, and therefore it can be calculated without knowledge of the future. And it's this Hamilton-Jacobi action that is the one most aligned with standard quantum theory, putting them both in the "universe as computer" camp."

Partager cet article
Repost0
17 septembre 2012 1 17 /09 /septembre /2012 20:49

calebbook.jpg


Farrar, Straus and Giroux 2012

Présentation par Jean-Paul Baquiast 17/09/2012

 

calebpicture.jpgCaleb Scharf dirige le centre d'astrobiologie de l'université de Columbia. Il s'agit d'un astrophysicien dont les recherches concernant, notamment, l'interprétation satellitaire des émissions radio attribuées aux trous noirs font autorité. De plus, c'est un formateur et vulgarisateur aussi passionné que passionnant. Il fait découvrir à un large public les problématiques les plus récentes de sa discipline, malgré leurs aspects apparemment les plus ésotériques.

Grâce au livre qu'il vient de publier, « Gravity's Engines », le lecteur apprend à jeter sur la physique de l'espace-temps, et sur les trous noirs qui en sont la manifestation la plus extrême, un regard renouvelé. Là où l'on voyait généralement des phénomènes exotiques, voire des constructions hypothétiques, il montre que les trous noirs de toutes tailles qui peuplent notre univers n'ont pas le rôle un peu négatif qui leur est généralement attribué.

Il ne s'agit pas seulement de puits gravitationnels dans lesquels s'engouffreraient pour ne plus en ressortir tant la matière visible que la matière noire. Ce sont aussi, comme l'indique le titre, des machines ayant construit les structures du cosmos, sous forme notamment d'émission de matière-énergie extrêmement puissantes. Celles-ci ont influencé la formation d'amas galactiques, de galaxies et de systèmes analogues à notre système solaire. Leur activité a perdu de sa force au fur et à mesure que vieillissait l'univers primitif ayant résulté du Big Bang. Mais elle demeure encore très présente de nos jours.

L'auteur n'hésite pas à faire l'hypothèse que le trou noir super-géant dont la présence est dorénavant admise au coeur de la Voie Lactée a pu jouer et joue encore un rôle essentiel pour participer à l'apparition de systèmes stellaires ressemblant au nôtre, présentant un certain nombre de conditions favorables à la présence de planètes habitables.

Un tel trou noir permettrait en effet que les nuages de gaz et de poussières émis en « sous-produit » de la matière qu'il absorbe par accrétion comportent des molécules nécessaires à l'apparition de la vie. Ainsi la synthèse des premières briques de la chimie organique n'aurait pas eu besoin d'attendre pour trouver des conditions favorables le long processus, se comptant en milliards d'années, par lequel les étoiles en fin de vie rejettent dans le milieu les produits de leurs nucléosynthèses. Pourquoi la vie terrestre, comme d'autres formes de vie susceptibles de se trouver dans l'un quelconque des cent milliards de systèmes solaires de la galaxie, n'aurait-elle pas bénéficié du rôle accélérateur joué par le trou noir central, ou par d'autres trous noirs plus petits, se trouvant également dans la Voie Lactée.

Aussi intéressante que soit cette hypothèse, nous devons dire qu'elle n'apparait qu'en fin du livre, sous forme si l'on peut dire de cerise sur le gâteau. L'essentiel de l'ouvrage présente nous l'avons dit les hypothèses relatives à l'existence des trous noirs, en application des principes de la gravitation newtonienne entièrement refondue par les modèles de l'espace-temps einsténien.

4c41_comp.jpg
A gauche, la radio-galaxie 4C41.17 que l'auteur a contribué à découvrir. On estime qu'un trou noir massif en rotation dans le coeur de cette galaxie lointaine est responsable des deux jets de particules à la source des émissions radio.

Caleb Scharf ne se borne pas à des présentations mathématiques. Il relate par le détail les acquis apportés par les récentes observations, orbitales et terrestre, portant sur les émissions en micro-ondes et en rayons X permises par les instruments que la Nasa et dans une moindre mesure l'Esa ont mis ces dernières années à la disposition des astrophysiciens. Les résultats ainsi obtenus par les jeunes générations de chercheurs paraissent aller de soi. Mais l'auteur, sans d'ailleurs trop y insister, montre les énormes problèmes, tant pratiques que théoriques, qui ont du être résolus pour tirer des conclusions utiles de la jungle d'émissions les plus diverses, des plus anciennes au plus récentes, dont la Terre est constamment bombardée.

1% d'inconnu

Nous ne pouvons pas résumer ici ce livre, qui est trop riche pour l'être en quelques paragraphes. Il faut le lire en détail, avec sous la main la masse considérables d'informations complémentaires apportées sur le sujet par les différentes entrées de Wikipedia. Autrement dit, il y a là plusieurs journées de travail pour un esprit curieux souhaitant commencer à se doter d'idées pertinentes concernant la physique des trous noirs et toutes les conséquences pouvant en découler, non seulement sur la cosmologie mais aussi sur la physique quantique.

Ce seraient évidemment de bien plus longues heures qui seraient nécessaires pour tenter de prendre un peu de recul sur ces connaissances, dont Caleb Scharf dit qu'elles sont fiables à 99% mais qu'elles laissent un « immense » 1% d'inconnu, au sein duquel pourraient se trouver de futures observations et hypothèses susceptibles de bouleverser une fois de plus la physique du 21e siècle.

Les points qui demeurent encore en discussion sont, comme on le devine, relatifs à ce que suggéreront les recherches intéressant la gravitation quantique, dont on annonce régulièrement les prochaines découvertes, sans que rien de décisif n'ait encore été produit. Ce sera sans doute dans cette direction que l'on pourra répondre à des questions apparemment simples comme celles concernant le devenir de la matière absorbée par les trous noirs, ou l'origine de la matière en provenant: autrement dit quelle réalité peut-on attribuer au concept de singularité, dont l'étude du cosmos primordial et cette des trous noirs a montré l'efficacité?

Mais il faudra ne pas oublier l'observation. L'auteur décrit les nouveaux instruments qui seraient nécessaires pour résoudre, à peu de frais peut-on dire, d'immenses problèmes encore pendants. Or nos sociétés prétendent ne plus avoir d'argent pour de telles dépenses. Elles ne se privent pas cependant de gaspiller leurs ressources dans des directions autrement moins productives.

Caleb Scharf admire à juste titre que l'esprit scientifique moderne ait pu forger des hypothèses s'étant révélées opératoires à propos de concepts aussi diffus. Mais peut-être devrait-il insister sur une question encore plus fondamentale. Il s'agit des limites temporaires voire permanentes empêchant nos cerveaux et les instruments conçus par eux d'envisager des perspectives se situant radicalement en dehors de l'acquis des connaissances actuelles. Des intelligences artificielles du futur le pourront-elles demain?
________________________________________

Remarquons en conclusion que des milliards d'humains se battent encore aujourd'hui pour s'imposer les uns aux autres des conceptions du monde héritées du Moyen-Age, qu'ils considèrent comme sacrées, c'est-à-dire immunisées contre toute critique. On peut penser avec un rien d'optimisme que s'ils avaient les connaissances linguistiques et scientifiques minimum permettant de comprendre un livre tel que celui de Caleb Scharf, les moins excités d'entre eux pourraient revenir à la raison et s'intéresser sérieusement à l'avenir de notre planète. La science nous montre que celle-ci, comme l'ensemble du système solaire, voit dorénavant ses espérances de vie et de découvertes inexorablement limitées. Il serait temps d'en profiter avant de mourir idiot.


Pour en savoir plus

* Le blog de l'auteur http://lifeunbounded.blogspot.fr/
* Caleb Scharf par lui-même http://blogs.scientificamerican.com/network-central/2012/01/31/introducing-sciamblogs-bloggers-caleb-scharf/
* Black Hole http://en.wikipedia.org/wiki/Black_hole
* Animation The Hubble Site http://hubblesite.org/explore_astronomy/black_holes/
* Interview de l'auteur par The Economist http://www.economist.com/blogs/babbage/2012/08/qa-caleb-scharf

 

Partager cet article
Repost0
9 juillet 2012 1 09 /07 /juillet /2012 09:27

Quelles sont les chances qu'existent des formes de vie semblables à la nôtre dans l'univers ? Si l'on considère l'immense nombre de planètes de type terrestre et gravitant dans une sphère dite habitable, ne fut-ce que dans la galaxie, on sera tenté de répondre que ces chances sont considérables.


Jean-Paul Baquiast 09/07/2012

mitochondrie.png

Schéma d'une mitochondrie


Certes, prouver cette affirmation par des observations scientifiques indiscutables restera toujours difficile, puisque l'essentiel des astres concernés sont hors de nos possibilités d'observation au sein de l'espace-temps. Même des astres proches, comme la Lune ou Mars, n'ont pu encore être explorés avec suffisamment de détail pour rechercher des traces de vie, actuelle ou passée. Il n'a donc jusqu'à présent pas été possible d'observer une quelconque forme de vie extraterrestre, qu'elle réponde ou non aux critères par lesquels on croit pouvoir différencier la matière vivante de la matière inerte.

Pour discuter de la probabilité d'existence de formes de vie extraterrestre, il faut donc raisonner sur ce que nous croyons savoir des origines de la vie sur Terre. Encore faut-t-il distinguer entre vie bactérienne (les procaryotes, sans noyaux) et vie cellulaire et multicellulaire (les eucaryotes). Il n'y a pas seulement une différence d'échelle entre ces deux formes de vie, mais de profondes différences de nature. Néanmoins, sur Terre, elles coexistent depuis environ 800 millions d'années.

Le biochimiste Nick Lane, dont nous avions déjà salué les idées novatrices et la clarté pédagogique concernant ces questions difficiles, vient de publier dans le NewScientist un article qui résume les deux dernières années de recherche qu'il a consacrées à cette question, autrement dit les hypothèses qui permettent de comprendre comment sur Terre, au delà de la vie bactérienne, sont apparus des organismes eucaryotes multicellulaires sur un modèle unique, celui dont nous sommes tous issus. Nous reprendrons ici, en les commentant éventuellement, mais aussi en simplifiant la présentation, les points importants de cet article.

Les bactéries et autres procaryotes.


On peut admettre, comme le rappelle Nick Lane, que l'apparition de la vie monocellulaire peut ne pas exiger, au sein des planètes potentiellement habitables semblables à la Terre, la conjonction de conditions extraordinaires. Elle doit donc être très répandue. Certains pensent même que, dans la plupart des cas, elle devrait se produire quasi nécessairement. C'est la raison pour laquelle les exobiologistes la recherchent activement sur les astres que les techniques astronomiques actuelles permettent d'observer. Cette recherche n'a pas encore abouti mais les techniques d'observations restent très insuffisantes. On peut légitimement prévoir que dans quelques années ou décennies, on en saura davantage, aussi bien sur des formes de vie, supposées « primitives » et restées sans descendance ayant existé puis disparu sur d'autres planètes (la Lune, Mars) que sur celles se trouvant en dehors du système solaire. En bonne méthode, il faudrait aussi rester attentif à des biologies assez différentes de celles caractérisant la vie terrestre, utilisant par exemple des matériaux autres que le carbone, hypothèses que Nick Lane ne développe pas.

Nick Lane, dans son ouvrage le plus important à tous égards, « Life ascending », que nous avions commenté (voir références), avait consacré un long développement aux conditions nécessaires à l'apparition d'une première forme de vie, celle représentée par les cellules primitives ayant donné naissance aux cellules procaryotes d'aujourd'hui. Ces conditions devraient se retrouver au sein de la zone habitables des principales planètes rocheuses semblables à la Terre. Il faut seulement du CO2 et de l'hydrogène (H2), très répandus dans l'univers. Il faut aussi des roches présentes dans le manteau terrestre, telle que l'olivine, minéral du groupe des silicates. L'olivine est le minéral dominant des roches constituant le manteau. Elle est le premier minéral à cristalliser lorsqu'un magma refroidit.

Selon le géologue Michael Russel, cité par Nick Lane, des cheminées hydrothermales océaniques alcalines se forment par la percolation de l'eau dans des roches riches en fer et magnésium telles que l'olivine. L'olivine et l'eau réagissent en produisant de la serpentinite. Celle-ci peut former des cheminées hydrothermales de grande taille (plus de 50m). Elles sont de structure cellulaire. Ces cellules minérales auraient pu, il y a 4 milliards d'années, servir d'incubateur aux premières formes de vie. Leurs parois comportent des catalyseurs venus du magma (sulfures de fer, nickel et molybdène) identiques à ceux qui, incorporés dans des protéines, servent aujourd'hui aux cellules vivantes pour catalyser la production de molécules organiques à partir du CO2. Il fallait cependant pour provoquer ces réactions catalytiques une source d'énergie importante. L'énergie nécessaire à ces catalyses aurait été fournie par la différence de charge électrique (gradient de protons ou potentiel de membrane) se produisant d'un coté à l'autre des parois ou membranes des cellules de la serpentinite, elle-même résultant d'une différence de concentration des noyaux des atomes d'hydrogène chargés. Il s'agissait d'une sorte de pile naturelle.

Il en serait résulté que les parois des micro-cellules minérales de la serpentinite, riches en catalyseurs et baignées de CO2 et H2, se seraient grâce à l'énergie de leur potentiel de membrane garnies des molécules organiques nécessaires à la vie, donnant naissance à des microcellules biologiques. Ces dernières auraient conservé le processus fondateur, une membrane permettant une différence de charge électrique (un gradient de protons) entre l'extérieur et l'intérieur de la cellule biologique. Elles auraient pu alors exploiter pour leur compte les catalyseurs disponibles, afin de bâtir à partir du CO2 et de l'H2 de l'océan primitif les protéines dont elles avaient besoin pour grandir puis, dans un second temps, des millénaires plus tard sans doute, se détacher de la serpentinite et devenir mobiles.

Ceci est un point capital mis en lumière par le biochimiste Peter Mitchell en 1961. L'énergie nécessaire à la vie primitive aurait été capturée par un mécanisme spécifique antérieur à l'apparition de cette même vie. Il aurait résulté, comme indiqué ci-dessus, de la mise en contact, par l'intermédiaire de l'eau de mer circulant dans les cellules de la serpentinite, des roches alcalines et du CO2 acide dissous en abondance dans cette eau (à une époque où l'oxygène produit ultérieurement par la vie n'avait pas oxygéné les océans). Rappelons cependant qu'il n'existe pas un accord général sur la faisabilité d'un tel processus.

Comme l'eau et l'olivine sont les substances les plus répandues dans l'univers, et comme beaucoup d'atmosphères planétaires aujourd'hui observées apparaissent riches en CO2, il est tout a fait légitime de penser que le mécanisme incubateur de la vie, intervenu sur Terre très tôt, seulement quelques centaines de millions d'années après sa formation, doit se produire dans les mêmes conditions et en abondance ailleurs dans l'univers, au sein des planètes de type terrestre.

Mais cela ne veut pas dire que ces planètes pourraient facilement se trouver peuplés d'organismes complexes, eucaryotes, tels que ceux apparus sur Terre. En effet, Dick Lane nous rappelle que le passage des procaryotes aux eucaryotes ne s'est pas fait facilement. Il a fallu attendre plusieurs milliards d'années, à peu près la moitié de la durée de vie totale de notre planète, pour que le premier ancêtre complexe apparaisse. De plus cela ne s'est fait qu'en une fois. Aucune autre tentative analogue ne semble s'être produite dans l'intervalle. Quel a donc été l'évènement ayant permis le passage de petits organismes aux génomes réduits, les procaryotes, à des organismes 15.000 fois plus importants, dotés de génomes étendus ?

Le passage aux eucaryotes. La révolution mitochondriale

Les études conduites par Nick Lane avec le biologiste cellulaire Bill Martin de l'université de Dusseldorf, récemment publiées dans Nature (voir référence ci-dessous), apportent une réponse à cette question essentielle. Si un procaryote se trouvait doté de la taille d'un eucaryote, à génome constant, chacun de ses gènes disposerait d'une énergie des dizaines de milliers de fois inférieure. Or cette énergie est nécessaire à la fabrication des protéines dirigée par l'expression du gène. Autrement dit, ses gènes deviendraient inefficaces et la cellule mourrait. Pour obtenir davantage d'énergie, nécessaire à la fabrication de quantités importantes de nouvelles protéines, la cellule doit étendre la surface de sa membrane, à travers laquelle s'opère l'acquisition d'énergie électrique . Mais ceci impose, pour une raison que nous ne préciserons pas ici, un contrôle renforcé du potentiel de membrane. Pour cela la cellule doit produire des copies du génome afin que les gènes soient proches de la membrane dont ils contrôlent le potentiel. Mais pour produire des copies du génome, il faut de l'énergie, celle dont précisément manque la cellule. Il s'établit un cercle vicieux. Faute de quantités très importantes d'énergie endogène, la cellule procaryote ne peut pas grandir.

Pendant au moins 2 milliards d'années, les procaryotes de l'époque se sont heurtés à ce mur de l'énergie, qui les empêchait de profiter du mécanisme darwinien des mutations pour se développer en taille et en complexité. Certes, ils ont évolué de façon notable, découvert la photosynthèse et transformé de ce fait le visage des océans puis des terres émergés. Mais ces effets n'ont pas été produits par des bactéries très différentes des procaryotes originels, seulement par l'accumulation d'immenses populations de ces bactéries. Jamais elles n'auraient pu grandir suffisamment pour donner naissance à des cellules eucaryotes infiniment plus grandes, puis à des organismes pluricellulaires et finalement aux êtres vivants supérieurs tels que nous les connaissons.

Or on sait maintenant qu'il s'est produit à un moment, que l'on situe approximativement à – 2 milliards d'années avant le temps présent, un phénomène extraordinaire. On pourrait presque le nommer la « révolution mitochondriale », comme nous allons le préciser. Voici pourquoi. Certaines cellules ont été envahies de façon symbiotique par des cellules plus petites qui en on fait leur nouvel habitat. Il aurait pu s'agir de cellules eucaryotes primitives ou d'archea. Comme dans toutes les symbioses (endosymbiose en ce cas), chacun des partenaires y a gagné. Les petites cellules envahisseuses ont vu leurs besoins généraux satisfaits par la cellule hôte. En contrepartie, elles ont pu développer leurs propres générateurs d'énergie, membranes et gènes nécessaires pour contrôler le potentiel de membrane. Elles ont pu ainsi produire les grandes quantités d'ATP (le moteur du mouvement) nécessaires pour baigner d'énergie les cellules hôtes.

Tandis que les cellules « invitées » voyaient diminuer drastiquement la taille d'un génome dont elles n'avaient plus besoin, les cellules hôtes, enfin libérées de la disette d'énergie qui les empêchaient de grandir, ont vu leurs gènes se multiplier et des quantités de plus en plus élevées de protéines être consacrées au support des mutations complexifiantes grâce auxquelles elles ont pu grandir, se spécialiser et envahir de nouveaux territoires.

Les cellules envahisseuses sont devenues, on le sait maintenant, les mitochondries. On a découvert leur rôle essentiel dans le cycle de l'énergie à partir de 1948. Elles ont d'autres rôles moins évidents, le tout faisant d'elles, parallèlement à l'ADN, le composant incontournable de toutes les cellules modernes, dans tous les types d'organismes existant. Certes la co-évolution assurant ce partage des fonctions à demandé beaucoup de temps pour s'établir et se perfectionner. Nick Lane l'estime à près de 2 millards d'années. Mais lorsque la vie pluricellulaire moderne a explosé, conquérant l'ensemble de la planète, lors de la période dite cambrienne, le mécanisme tel que nous le connaissons aujourd'hui était en place depuis longtemps.

Jamais rien de tel ne s'est produit depuis. On ne sait pas très bien pourquoi d'ailleurs. Sans doute parce que ce mécanisme pour réussir suppose des conditions si favorables que le premier arrivé, comme souvent en biologie, élimine d'éventuels concurrents ultérieurs. Il existe certes aujourd'hui de nombreux exemples d'autres endosymbioses. Les populations microbiennes extrêmement nombreuses et variées que nous hébergeons, et sans lesquelles nous ne pourrions survivre, en sont un exemple. Mais il s'agit de coopérations, aussi indispensables qu'elles soient, qui semblent bien plus modestes. A ce jour aucun virus ou microbe (non plus d 'ailleurs que d'organismes eucaryotes) n'a bouleversé le cycle énergétique et alimentaire des humains en leur donnant la possibilité de devenir plusieurs centaines de fois plus grands et de conquérir des espaces aériens ou océaniques encore hors de leur portée. Seul des scénarios de science-fiction pourraient illustrer de telles transformations. Si un tel phénomène voyait le jour, ce ne serait pas en tous cas à la suite d'une symbiose biologique mais d'une symbiose entre un organisme biologique et un système technologique. Ce dernier type de symbiose existe déjà, selon nous, sous la forme de ce que nous avons nommé les systèmes anthropotechniques. Mais leurs conséquences biologiques restent encore très limitées.

En ce qui concerne la question posée par Dick Lane au début de son article : la vie terrestre est elle inévitable, sur une planète rocheuse comparable à la nôtre, la réponse qu'il apporte est claire, et nous la ferons nôtre, n'ayant vraiment pas d'arguments contraires à lui opposer. Oui, les futurs voyageurs interplanétaires rencontreront une grande majorité de planètes peuplées par l'équivalent de nos procaryotes, mais il leur faudrait vraiment beaucoup de chances, ou visiter des dizaines de milliers de planètes, pour se trouver nez à nez avec des organismes eucaryotes multicellulaires. Sauf à imaginer des mécanismes de développement de la vie très différents de ceux que nous observons sur Terre, on devrait pouvoir parier sans risques que ces derniers ont été et demeurent extrêmement rares dans l'univers.

Nous rappelerons par ailleurs que l'enrichissement de la complexité au sein des eucaryotes n'est pas un mécanisme nécessairement irréversible. Depuis que l'homo erectus est apparu, il a provoqué des extinctions massives au sein des espèces supérieures. N'en profitent que les multicellulaires simples et les proaryotes, algues, bactéries et virus.

Références
plantri.gif Nick Lane. «  Life : is it inevitable or just a fluke ?  »
http://www.newscientist.com/article/mg21428700.100-life-is-it-inevitable-or-just-a-fluke.html?
On lira aussi les très intéressants commentaires des lecteurs.
plantri.gif Nick Lane. « Life ascending ». Voir notre présentation http://www.automatesintelligents.com/biblionet/2010/mar/nicklane.html
plantri.gif Nick Lane et William Martin « The energetics of genome complexity ». Nature 21/10/2010. Les mitochondries ont apporté aux eucaryotes l'énergie nécessaire pour faire le saut vers la complexité http://www.nature.com/nature/journal/v467/n7318/full/nature09486.htm
plantri.gif Olivine http://fr.wikipedia.org/wiki/Olivine
plantri.gif Serpentinite http://fr.wikipedia.org/wiki/Serpentinite
plantri.gif Mitochondrie http://fr.wikipedia.org/wiki/Mitochondrie


Partager cet article
Repost0
25 février 2012 6 25 /02 /février /2012 19:12

Commentaire par Jean Paul Baquiast
23/02/2012


 

Sur Lawrence Krauss

http://en.wikipedia.org/wiki/Lawrence_M._Krauss

Conférence http://www.youtube.com/watch?v=7ImvlS8PLIo

Débat http://scienceblogs.com/pharyngula/2011/04/
lawrence_krauss_vs_william_lan.php

 

 

 

 

Vers une nouvelle révolution paradigmatique

Dans un ouvrage souvent cité, mais de moins en moins lu 1) Thomas Kuhn expliquait que les connaissances scientifiques s'organisent autour de vastes constructions conceptuelles, qu'il nommait des paradigmes. Ces constructions s'élaborent à partir du travail quotidien des sciences et confèrent aux nouvelles découvertes un sens général qui dans l'ensemble s'impose à tous. Ils n'intéressent pas en effet les seuls chercheurs mais aussi les épistémologues (ou philosophes des sciences) et plus généralement la société toute entière. La caractéristique, selon lui, des paradigmes scientifiques est qu'ils n'évoluent pas par petites touches, au fur et à mesure de l'acquisition de nouvelles expériences. Ils le font d'une façon discontinue, par ruptures. Kuhn défend contre Popper l’idée que les théories scientifiques ne sont pas rejetées dès qu’elles ont été réfutées par de nouvelles expériences mais seulement quand elles ont été remplacées par de nouvelles théories ayant la même ambition totalisante. Ce remplacement est pour partie un phénomène social dans le sens où il engage une communauté de scientifiques et de philosophes en accord avec une explication globale de certains phénomènes ou de certaines expériences.

On a souvent dit ces dernières années que la physique était à la recherche de nouveaux paradigmes globaux, dans la mesure où ses deux grands domaines de recherches, l'astronomie (étendue à l'ensemble du cosmos sous le nom de cosmologie) et la mécanique quantique, reposent sur des bases non encore compatibles. Cependant elles ont été toutes été validées autant qu'il est possible aujourd'hui en l'état de l'expérimentation. Or ces deux domaines n'ont pas encore été rapprochés. Les efforts de synthèse entrepris par les théoriciens de la gravitation quantique n'ont toujours pas abouti. L'objectif est d'obtenir une synthèse mathématiquement cohérente entre la théorie einsténienne de la gravité, qui est au coeur de l'astronomie moderne et la physique quantique qui depuis les années 1929-1930 étudie en termes nouveaux les atomes et des particules. Or malgré les efforts déployés depuis maintenant une trentaine d'années, la gravitation quantique ne propose que des modèles théoriques non testables expérimentalement et n'offrant pas de sens commun explicite.

Ceci s'est traduit, dans le domaine de la cosmologie, par le fait étonnant que pour comprendre divers phénomènes encore inexpliqués, cette science a fait appel à des Singularités, c'est-à-dire à des évènements où les lois de la physique einstenienne cessent d'être applicables. Il s'agit notamment des Trous noirs et du Big Bang, désormais indispensables aux descriptions actuelles de l'univers. En principe seule la physique quantique devrait permettre de donner des descriptions satisfaisantes de ces évènements. Mais ce n'est pas encore le

On aurait donc pu espérer que l'ensemble des physiciens s'intéressant à la cosmologie aurait conjugué leurs efforts pour éliminer de tels vastes ilots d'incertitude. Même si les recherches consacrées à la gravitation quantique n'ont pas encore abouti, on aurait peut-être pu faire plus systématiquement appel à la physique quantique, par exemple pour étudier ce que celle-ci qualifie de vide (le vide quantique) et rechercher si le type de particules et d'interactions, dites virtuelles, qui se manifestent dans ce dernier ne pourraient pas permettre de mieux comprendre les phénomènes, non seulement du vide cosmologique (espaces quasiment dépourvus de particules) mais des Singularités auxquelles nous venons de faire allusion, là où l'espace et le temps ne se manifestant plus, les déterminismes de la physique ordinaire ne peuvent intervenir.

Ceci aurait été d'autant plus légitime que la physique contemporaine fait de plus en plus appel à des expériences, telles celles intéressant l'effet dit Casimir, où l'étude des particules virtuelles apparaissant et disparaissant au rythme des fluctuations du vide quantique est en train de se banaliser 2).  Or assez curieusement, la plupart des cosmologistes, jusqu'au début des années 2000, ne semblaient pas prêter intérêt aux questions étudiées par la physique quantique. C'est ainsi que pour expliquer des observations relatives à des anomalies dans la gravitation (matière noire) ou dans la vitesse d'expansion de l'univers (énergie noire), beaucoup préféraient mettre en cause la qualité de ces observations plutôt que l'intervention de facteurs en cours d'élucidation par la physique quantique, comme les particules quantiques et les fluctuations du vide évoquées plus haute 3). Peut-être faut-il faire porter ce manque d'ouverture au cloisonnement disciplinaire particulièrement marqué en France, entre astronomes et leurs collègues physiciens de laboratoire s'intéressant au monde quantique.

Ce cloisonnement s'est aussi traduit dans le domaine des paradigmes. La cosmologie inspirée par la tradition de l'astronomie s'est longtemps limitée au paradigme dominant dans les sciences dites macroscopiques, celles s'intéressant aux objets de la vie quotidienne. Il est que tout phénomène peut être rattaché à une cause. Il est aussi que ces causes s'organisent en lois de plus en plus générales à partir desquelles on peut déduire les phénomènes de détail. La physique quantique, au contraire, a popularisé depuis maintenant plus d'un demi-siècle les concepts d'indéterminisme, de superposition d'état, d'intrication. Pour elle, la science ne peut envisager de phénomènes ayant une réalité en soi. Elle ne peut décrire que des résultats probabilistes découlant des relations entre un monde inobservable directement, des expérimentateurs et des instruments.

On conçoit bien les résistances qu'a longtemps suscité la tentation d'étendre ces « conceptions du monde » à l'astronomie. L'astronome classique ne comprenait pas l'intérêt de faire appel pour, par exemple, l'observation de la lune et du soleil au « relativisme » s'imposant en mécanique quantique. Il reste que, pour interpréter les situations limites que fait apparaître aujourd'hui l'observation de l'univers, évoquer le vieux déterminisme de la physique macroscopique se révèle inopérant  4)

Malgré cela, jusqu'à une époque très récente, s'est conservée la conviction que le monde de la cosmologie restait gouverné par des causes premières définissant plus ou moins rigidement l'enchainement des phénomènes et l'interaction des forces en présence. Même si les spécialistes ne pouvaient pas encore expliquer, selon la formule célèbre, pourquoi il se trouvait quelque chose plutôt que rien, ils pouvaient au moins se persuader que ce quelque chose – c'est-à-dire l'univers avec tous ses contenus - découlaient de causes dont certaines leur paraissaient pouvoir être étudiées théoriquement et expérimentalement.

Les esprits évoluent

L'état des esprits paraît cependant changer rapidement chez les physiciens et ceux qui s'intéressent à leurs recherches, comme en témoigne le livre de Lawrence M. Krauss que nous évoquons ici, A universe for nothing. Gràce en particulier aux travaux de l'auteur et des cosmologistes ayant adopté sa démarche, la prise en compte des postulats et des méthodes de la physique quantique est en train de se généraliser en cosmologie. C'est ainsi que des observations niées ou non comprises par l'astronomie traditionnelle, telles celles relatives à la masse des astres (matière noire) ou à la vitesse d'expansion de l'univers (énergie noire) commencent à être mieux interprétées en faisant notamment appel aux fluctuations du vide et aux particules virtuelles étudiées par ailleurs en laboratoire par les physiciens quantiques.

Mais il existe à cela une contrepartie épistémologique. La physique quantique considérée dorénavant en astronomie comme incontournable apporte avec elle ses propres postulats épistémologiques. Nous les avons résumés ci-dessus. Il en résulte que les paradigmes anciens inspirés par la physique macroscopique perdent de leur influence, y compris par contagion dans les sciences traditionnelles. Une véritable révolution paradigmatique, une de plus, paraît en train de s'accomplir sous nos yeux. C'est à elle que fait référence le titre du présent article.

Si ce nouveau paradigme réussissait à s'imposer en découlerait un changement dans la façon de se représenter le monde ayant inspiré plusieurs générations de philosophies des sciences dominées par le déterminisme –sans mentionner chez d’autres auteurs un finalisme d’inspiration religieuse également très présent. Nous ne prétendons pas ici définir avec précision ce changement. Essayons pourtant de le résumer.

La grande majorité des humains ne sont pas concernés par la science. Ils se représentent le monde à partir des images et sentiments diffusés par les diverses religions. Nous n'évoquerons pas ici les polémiques et agressions que suscite dans les milieux croyants américains l'ouvrage de Lawrence Krauss. Le Web en témoigne. Mais ce ne sont pas les croyants qui nous intéressent. Nous mentionnons ici la petite minorité des humains qui, même s'ils ne se disent pas ouvertement athées, font cependant exclusivement confiance à la science pour décrire le monde. Lorsque celle-ci laisse des questions sans réponse, ils préfèrent attendre de nouvelles avancées, tant dans l'expérimentation que dans la théorisation, plutôt que faire appel à des explications par la divinité qui en fait n'expliquent rien (Dieu par défaut ou God of the Gaps, selon la formule reprise par l'auteur).

Or quel est le paradigme dominant dans les sciences dites macroscopiques, celles s'intéressant aux objets de la vie quotidienne. Il est nous l'avons dit que tout phénomène doit pouvoir être rattaché à une cause. Il est aussi que ces causes s'organisent en lois de plus en plus générales à partir desquelles on peut déduire les phénomènes de détail. Il en résulte qu'aucun scientifique conséquent, comme aucun philosophe des sciences responsable, ne se serait avisé jusqu'à ces temps-ci de postuler que l'univers et tout ce que l'on observe en son sein pourraient ne provenir de Rien.

C'est pourtant ce que suggèrent les cosmologistes tels que Krauss. Poussée à l'extrême, ce postulat signifierait que par Rien, il ne faudrait pas se limiter aux vides usuels, vide instrumental obtenu dans une machine à vide, vide cosmologique de l'espace inter-galactique ou même vide quantique de l'effet Casimir, supposé empli de particules virtuelles et de fluctuations, tous vides auxquels on peut rattacher des phénomènes observables. Il s'agirait d'un Rien absolu, antérieur ou en arrière-plan de l'univers, excluant évidemment tout temps, tout espace, tout observateur et toute matière à observer. Il exclurait même, à l'extrème, toute référence au monde quantique ou à son énergie, et par définition toute référence à des lois fondamentales de la nature, s'imposant a priori.

De plus, selon ce postulat, de ce Rien pourrait à tout moment provenir n'importe quoi. Par n'importe quoi, il faudrait là encore effectivement entendre N'importe quoi, apparaissant sur un mode totalement aléatoire, comme le font les émergences de couples de particules-antiparticules virtuelles. Ceci inclurait l'univers cosmologique que nous connaissons, avec ses lois fondamentales et tout ce qu'il comporte, y compris des observateurs intelligents tels que nous, mais aussi d'autres entités indescriptibles par nous et notamment d'autres univers, obéissant probablement, pour certains d'entre eux, à des lois fondamentales différentes et comportant des observateurs différents.

Un postulat en science n'a d'intérêt que si peuvent en être déduites des hypothèses vérifiables expérimentalement. C'est bien nous l'avons dit ce qui est en train de se passer en cosmologie, puisque depuis quelques années un certain nombre de faits nouveaux susceptibles d'entrainer des changements conceptuels importants, mais non encore organisés en une véritable révolution paradigmatique, sont en train de se produire. A Universe From Nothing en donne de nombreux exemples. Il n'est pas encore possible d'observer d'autres univers au sein d'un multivers hypothétique, mais le nouveau paradigme se refuse à exclure cette perspective.

Nous encourageons donc nos lecteurs à se reporter au livre. Il s'agit d'un ouvrage relativement difficile, bien que l'auteur vise un large public. Les concepts et les observations auxquels il se réfère sont récents et peu connus des non spécialistes. Ils évoluent tous les jours, comme le montre l'actualité scientifique. Laurence Krauss est particulièrement bien placé pour en traiter puisque comme nous l'avons dit, il a personnellement participé à beaucoup des recherches mentionnées. Il continue à le faire. Inutile dans ce premier article de faire d'autres commentaires. Nous y reviendrons ultérieurement à l'occasion.

Les limites du cerveau humain

Auparavant, nous voudrions évoquer une question que l'auteur aborde à peine, contrairement à d'autres scientifiques, tels notamment l'astronome Christian Magnan, précédemment commenté sur ce site. Il s'agit d'un fait, bien connu des cogniticiens évolutionnaire. Le cerveau humain s'est adapté tout au long de l'évolution à la compréhension de l'environnement dans lequel étaient plongés les animaux et les humains apparus ensuite. Il comporte donc des limites obligées. Il ne peut pas comprendre, ni même observer n'importe quoi. L'ajout de puissants moyens instrumentaux d'observation et de traitement des données n'y change rien. Les limites demeurent, dès que les questions à comprendre s'approfondissent.

Bien quei les techniques modernes permettent aux homo sapiens (ou pour reprendre notre terminologie, aux systèmes anthropotechniques ) de percevoir et d'interpréter de plus en plus de choses, y compris concernant le cosmos, il paraît inévitable que face aux questions véritablement dures (les hard problems de Chalmers) les humains doivent déclarer forfait. Mieux vaudrait en convenir. Beaucoup de ce que nous observons de l'univers nous demeurera sans doute à jamais incompréhensible. Par ailleurs, à très long terme, nous observerons de moins en moins de choses, si comme le pronostique Lawrence Krauss, l'expansion se poursuivait.

Il serait cependant raisonnable, avant que les cerveaux humains ne déclarent forfait, qu'ils s'appliquent davantage à mieux comprendre leur propre fonctionnement, assisté de celui de leurs prothèses artificielles. Beaucoup de domaines devant lesquels aujourd'hui la science capitule pourraient sans doute alors s'éclaircir. Cette perspective nous permettra de faire un lien entre le cosmos et les automates intelligents, qui donnent leur nom à notre site.


Notes
1)Thomas Kuhn La Structure des révolutions scientifiques, 1962
2)Cf NewScientist Something for nothing. How to harness the power of the vacuum 18 février 2012, p. 34
3)Voir par exemple Christian Magnan, dans Le théorème du jardin, que nous avons présenté sur ce site
4) Ce « relativisme » très sain, pouvant relever selon les termes de notre collègue Mioara Mugur Schaechter de la Méthode de Description Relativisée (MCR) qu'elle a proposée, ne s'est d'ailleurs pas encore étendu à l'ensemble des connaissances intéressant la vie quotidienne, alors qu'il y aurait, comme nous l'avons montré par ailleurs, tout-à-fait sa place.


Partager cet article
Repost0
17 février 2012 5 17 /02 /février /2012 18:02

Faudra-t-il dorénavant dire adieu à la Big Science?
Par Jean-Paul Baquiast et Christophe Jacquemin 17/02/2012

Le terme de Big Science désigne généralement celle qui fait appel à des équipement lourds, coûtant des milliards de dollars ou euros et demandant des années de mise en place. Ce sont ces équipements qui depuis un siècle et plus particulièrement depuis les dernières décennies, ont permis de transformer radicalement le regard porté par l'homo sapiens sur ce qu'il perçoit de l'univers. On pense le plus souvent aux programmes spatiaux ou aux accélérateurs de particules. Mais il faut y ajouter les observatoires terrestres de nouvelle génération, sans doute aussi les matériels qui se consacreront à domestiquer la fusion nucléaire.

Les critiques politiques de la Big Science lui reprochent d'être plus souvent orientée vers la conquête de nouveaux pouvoirs géopolitiques ou de technologies principalement destinées à la guerre. Ce n'est que sous forme de retombées tout à fait marginales qu'elle contribue à la production de connaissances « désintéressées » à destination universelle.

Mais le reproche est partiellement injuste. Plus exactement il méconnait le moteur qui semble inhérent aux systèmes anthropotechniques à portée scientifique. S'ils n'étaient pas imprégnés dans leut totalité par une volonté de puissance, de tels systèmes ne verraient pas le jour.

Pourquoi faudrait-il dorénavant en faire son deuil? Parce que la Nasa vient d'annoncer, urbi et orbi, que sous la contrainte des réductions de crédits fédéraux, elle allait sans doute renoncer à ce qui était présenté comme le phare de l'exploration spatiale des 30 à 50 prochaines années, l'exploration de la planète Mars. Ceci entraînerait dès maintenant l'interruption de la coopération en cours de négociation avec l'Agence Spatiale européenne. L'objet en était de mutualiser certaines ressources ou projets, notamment l'envoi sur Mars dans la prochaine décennie de robots plus efficaces et intelligents encore que les atterrisseurs martiens actuellement programmés. De tels robots auraient directement préparé la venue de missions humaines; En attendant, ils auraient pu répondre à des questions d'un grand intérêt en termes de connaissances fondamentales, relatives notamment à l'origine de la vie dans l'univers.

Bien évidemment, l'annonce de la Nasa a semé la consternation dans le monde scientifique. Si la Nasa et avec elle les Etats-Unis renonçaient faute de moyens à des programmes son seulement emblématiques mais réellement porteurs de progrès, qu'allait il advenir d'autres investissements scientifiques tout aussi importants?

Certains commentateurs ont dénoncé un effet d'annonce. Il est vrai que l'exploration spatiale coûtera aux Etats-Unis des dizaines de milliards par an, difficiles à trouver en période de récession. Mais ne votent-ils pas des sommes bien plus importantes quand il s'agit des budgets militaires? Ceci même si dans le même temps les crédits de département de la défense se voient plus ou moins amputés? Ils ne pourraient donc pas plaider un appauvrissement généralisé. Par ailleurs, l'initiative privée commerciale, très à la mode aujourd'hui, ne pourrait-elle pas prendre le relais?

D'autres observateurs font valoir que si les investissements spatiaux américains se trouvaient durablement réduits, les Chinois qui en font un enjeu stratégique essentiel, prendraient le relais. Ils y investiront les surplus d'une croissance qui ne semble pas se ralentir. Au vu de quoi d'ailleurs, rigueur ou pas, l'Amérique ne restera pas passive, peut-être rejointe en cela par l'Europe, la Russie et l'Inde. On pourrait espérer en ce cas que les Chinois ne garderaient pas pour eux la totalité de leurs découvertes et en feraient bénéficier la communauté scientifique.

Plus généralement, on fera sans doute valoir aussi que des découvertes tout autant importantes pourront se poursuivre, dans le cadre de budgets infiniment moindres. C'est le cas en intelligence artificielle, en biologie synthétique, en neurosciences et dans bien d'autres domaines.

Un pessimisme beaucoup plus systémique

Il semble cependant que l'écho donné en Occident à la décision de la Nasa traduit un pessimisme beaucoup plus systémique. Il découle de la généralisation et de la globalisation des crises qui semblent menacer dorénavant le monde entier. Nous avons parfois relayé ici un sentiment de plus en plus répandu. Selon ce sentiment, la science et avec elle les technologies scientifiques ne pourront plus dans l'avenir répondre à tous les espoirs spontanément mis en elles jusqu'ici. Le développement exponentiel des consommation découlant de l'inflation démographique et des inégalités dans la croissance se conjuguera avec une diminution sans doute elle aussi exponentielle, des ressources disponibles. Les sociétés seront de plus en plus forcées de préférer les activités de survie à celles visant à augmenter les connaissances, quels que soient les coûts induits à terme d'une telle renonciation.
Dans le même temps se multiplieront les croisades antiscientifiques menées par les religions monothéistes dites du Livre.

Comme l'a écrit il y a quelques jours un journal scientifique, l'annonce de la Nasa préfigure le temps où les chercheurs ne pourront plus désormais, faute de ressources, se lever tous les matins en s'interrogeant sur ce que la journée à venir leur donnera peut-être la chance de découvrir. Autrement dit, bien avant que la planète ne subisse inexorablement la détérioration des conditions ayant permis chez elle l'émergence de la vie et de l'intelligence, associées avec un constructivisme sans pareil, ne va-t-elle pas désormais connaître des régressions de toutes sortes, préalables à la généralisation du grand froid cosmologique?

Partager cet article
Repost0
21 janvier 2012 6 21 /01 /janvier /2012 16:23
 Peter H. Diamandis, Steven Kotler
L'avenir du monde: abondance ou misère?


A paraître
Présentation par Jean-Paul Baquiast 21/01/2012

Nous avions il y a quelques années donné sur le site Automates Intelligents un large écho à la thèse dite de la Singularité, brillamment défendue par l'inventeur et futurologue américain Ray Kurzweil. (voir notre présentation de son ouvrage The Singularity is near, Penguin Book 2005) Rappelons en deux mots que pour les tenants de cette façon de voir l'avenir, réunis désormais dans le Singularity Institute, les développements exponentiels et convergents des nouvelles sciences et des comportements associés devraient résoudre dans les prochaines décennies les problèmes de rareté et de pollution actuellement pronostiqués par les scientifiques non moins respectables qui annoncent l'effondrement des civilisations anthropotechniques.

Pour notre compte, devant l'accumulation des tensions entre la consommation-gaspillage des ressources et les capacités de réponse de la planète, nous avions fini par penser que les pronostiqueurs du « collapse global » étaient plus crédibles que ceux de l'abondance par la Singularité. Cette dernière n'est-elle pas un mythe suggéré par les oligarchies détentrices des richesses et des connaissances pour calmer les revendications et les révoltes de ceux se voyant enfermés à vie dans un futur sans espoir.

Pour être objectif, il faut cependant observer que les apôtres de cette véritable religion laïque qu'est la Singularité n'ont pas renoncé à se battre pour rendre crédible et donc faire vivre leur foi en un avenir potentiellement meilleur. Sans se départir d'un regard critique à leur égard, il faut néanmoins s'efforcer de les entendre.

Pour cela, ceux qui ne suivent pas de près les travaux et conférences de l'Institut de la Singularité pourront mettre à jour leurs connaissances par la lecture d'un ouvrage à paraître, déjà très commenté, « Abundance, The Future Is Better Than You Think » . Dans ce livre, les auteurs Peter H. Diamandis (président de la X-Prize Foundation et cofondateur de la Singularity University) et l'écrivain scientifique Steven Kotler se livrent à un très efficace travail de communication pour convaincre le lecteur des raisons qu'il devrait avoir de croire en l'avenir.

Ils insistent à cette fin sur ce qu'ils nomment quatre forces émergentes susceptibles de changer le monde. La première et sans doute la plus importante repose sur le développement exponentiel des technologies émergentes déjà abondamment évoquées par Ray Kurzweil. Mais qui dit technologies émergentes ne dit pas technologies déjà en voie d'émergence. Ce concept doit inclure, conformément à la thèse néodarwinienne de la mutation créatrice, l'apparition non prévisible de nouvelles solutions auxquelles personne n'a encore pensé et qui naitront du bouillonnement chaotique des intelligences. Plus le milieu sera ouvert et communiquant, plus ces inventions auront de possibilités pour se développer et faire apparaître de nouvelles ressources. Refuser ce postulat serait impensable de la part d'un esprit scientifique nourri à la philosophie des Lumières.

Forces émergentes socio-politiques

Les autres forces évoquées par les auteurs relèvent de l'analyse sociologique ou même sociologico- politique. Elles reposent sur l'hypothèse que les technologies émergentes seront exploitées par des dynamismes sociaux qui leur donneront à la fois leurs ressorts et leur portée.

Il s'agira de trois moteurs d'innovation qu'ils nomment dans l'esprit un peu messianique propre à l'Amérique « L'inventeur Domestique » (pour traduire le terme de « DO It Yourself Innovator », le « Technophilanthropisme » et le Milliard de ceux qui veulent s'en sortir ( le « Rising Billion »). Globalement il s'agira de tous les individus, riches ou pauvres et les petites entreprises (nous pourrions ajouter le monde des activités associatives et solidaires) qui vont se saisir des opportunités offertes par la créativité scientifique et technologique pour faire apparaître de nouveaux processus ou de nouveaux outils. Ceux-ci devraient non seulement procurer de nouvelles ressources, mais résoudre les conflits avec l'environnement résultant d'un accroissement de la demande globale.

Les auteurs donnent de nombreux exemples du surgissement d'initiatives qu'ils pronostiquent, dans le domaine de la santé, de l'agriculture, de l'énergie, de la dépollution...Ainsi en serait-il des « fermes verticales » qui devraient remplacer l'agriculture traditionnelle par des techniques utilisant 80% moins de terre, 90% moins d'eau, 0% de pesticide et 0% de coûts de transport – tout en occupant d'une façon intelligente des milliers d'actuels chômeurs.

Ces inventions reposeront en grande partie sur le sens de l'intérêt collectif qui devrait animer ceux qu'ils nomment les technophilanthropes – dont tous ceux qui s'investissent dans la diffusion des connaissances à travers l'Internet gratuit donnent des exemples. Mais elles reposeront aussi sur le cerveau global constitué par les centaines de millions de citoyens qui voudront faire travailler leur imagination au service de leur propre survie, sans faire appel à la conquête et au pillage comme beaucoup sont aujourd'hui tentés de le faire. Il pourra s'agir des plus pauvres, décrits comme le milliard des travailleurs à 2 dollars, dès qu'ils utiliseront les réseaux pour se regrouper et investir.

Le livre ne donne pas les outils qui permettraient de mesurer les impacts globaux, tant sur les ressources et l'environnement que sur la satisfaction des besoins, résultant d'une explosion (non chiffrée) de telles inventions. On pourra donc rester sceptique, mais surtout y voir une tentative politique pour sauver le rêve américain en péril aujourd'hui, par un appel renouvelé à ce qui en était le pilier, la libre entreprise et la libre invention – y compris à l'égard des restrictions imposées aux inventeurs par le capitalisme financier détestant la prise de risque.

On y verra aussi, plus globalement, une tentative pour sauver le Système, défini par les militants du mouvement Occupy comme opposant 5% d'hyper-riches à 95% de pauvres. L'appel aux milliardaires philanthropes (?) pour sauver le monde, tels par exemple ceux qui comme Richard Branson (groupe Virgin) s'investissent dans de nouvelles formes d'industries spatiales, paraîtra bien naïf.

Il serait cependant léger de se détourner du message roboratif ainsi proposé, au profit d'un pessimisme systématique qui ne serait pas davantage fondé. Le futurologue doit garder en l'esprit que tout peut arriver et que notamment le passé ne commande pas le futur. Ce ne sera pas en restant les mains dans les poches que l'on pourra survivre.

Pour en savoir plus
Abundance. The book, avec un exposé video de Peter Diamandis (anglais) http://abundancethebook.com/

Partager cet article
Repost0
8 novembre 2011 2 08 /11 /novembre /2011 15:59


Jean-Paul Baquiast 09/11/2011

 


Si l'on privilégie l'hypothèse selon laquelle ce seraient des traits psychiques et comportementaux liés à ce que nous appelons aujourd'hui les troubles mentaux qui auraient accéléré l'évolution des sociétés de sapiens, il faudrait identifier chez ces derniers des gènes liés aujourd'hui encore à de tels désordres, qui ne se retrouveraient pas dans les autres espèces d'hominidés, néandertaliens compris. Ces gènes seraient apparus par mutation chez les seuls sapiens. Généralement liées à des troubles psychiques susceptibles de rendre asociaux leurs porteurs, et donc de conduire à leur élimination, ces mutations auraient du disparaître. Or elles sont toujours présentes aujourd'hui. D'où l'hypothèse que ces gènes étaient et sont encore nécessaires à la compétitivité collective des sociétés humaines. D'où aussi la nécessité, soulignée par certains chercheurs, de ne pas sans précaution tenter aujourd'hui de les éliminer par la généralisation de ce que l'on pourrait nommer le tri génétique (genetic screening).

L'hypothèse dite de la sélection de groupe 1) a été longtemps refusée. Selon le néo-darwinisme strict, le processus de survie du plus apte, au terme des innombrables compétitions, mutations et sélections ayant depuis des milliards d'années fait l'histoire de l'évolution, n'intéresse que les individus. On peut à la rigueur et de façon imagée transposer ce raisonnement aux sociétés ou, plus largement, aux espèces. Il existe indéniablement des groupes plus performants que d'autres qui l'emportent sur leurs concurrents grâce à des avantages qu'ils ont été les seuls à acquérir. Mais en pratique, il n'apparait pas d'équivalent des mutations génétiques qui sont à la base de l'adaptation, puisque par définition les groupes n'ont pas d'ADN collectif. Les groupes et les espèces qui l'emportent sur leurs concurrents ne le font que parce qu'en leur sein sont apparus par mutation et reproduction des individus plus compétitifs ou mieux adaptés qui ont entrainé les autres.

La sélection de groupe a cependant depuis quelques décennies été réintroduite pour expliquer notamment pourquoi certains traits, défavorables aux individus qui en sont porteurs, se maintiennent d'une génération à l'autre au sein de groupes pour qui ces traits apportent un avantage. C'est le cas de l'altruisme, très présent chez les animaux et les insectes, qui conduit certaines catégories d'individus à se sacrifier pour le groupe. Si l'altruisme, comme c'est le cas chez les insectes, dépend d'une disposition génétique, il devrait disparaître avec la mort des individus altruistes, puisque ceux-ci ne peuvent pas transmettre leurs gènes. Or ce n'est pas le cas.

L’idée de base de la sélection de groupe, déjà évoquée par Darwin dans le chapitre 5 de son ouvrage The Descent of Man, est qu’un caractère qui peut être défavorable à un organisme peut néanmoins se développer au sein d’une population s’il confère un avantage à cette population par rapport aux autres. Un mécanisme encore mal élucidé assure sa conservation et sa transmission. La culture, faite des comportements collectifs au sein du groupe, peut assurer sa préservation. Mais l'explication n'est pas recevable dans tous les cas.

Il reste que le concept de sélection de groupe est encore peu utilisé. La réticence à l’admettre provient essentiellement du fait que dans le cadre de la sélection de groupe ce n’est plus l’individu (l’organisme ou plus exactement son phénotype) qui est l’objet de la sélection mais le groupe. Celui-ci est trop complexe et trop mal défini pour que l'on puisse l'observer comme on le ferait d'un individu. De manière générale, le consensus en biologie évolutionnaire est que si la sélection de groupe est un mécanisme plausible, son importance dans le processus d’évolution ne peut qu'être mineure.

Dans le cas des sociétés humaines, on admet généralement que si les sociétés d'homo sapiens ont progressivement supplanté les autres espèces et groupes sociaux tant de primates que d'hominidés, elles l'ont fait grâce à des acquis culturels, notamment l'invention et l'emploi systématiques d'outils et d'armes améliorés. Mais des recherches anthropologiques récentes semblent montrer que les comportements novateurs qui en sont la source semblent découler de la présence de gènes provoquant en général des désordres psychiques susceptibles de rendre asociaux voire dangereux les individus qui en sont porteurs. Ceux-ci auraient donc du être éliminés par les sociétés et les gènes responsables disparaître. Or au contraire, ceux-ci se sont maintenus et sont encore bien présents aujourd'hui. Il doit donc exister une cause à ce paradoxe.

De nombreux exemples tirés de l'étude d'une préhistoire vieille de quelques dizaines de milliers d'années, semblent prouver l'existence d'une co-évolution entre certains troubles psychiques et ce que l'on nomme généralement le progrès humain. Les effets positifs de ces troubles l'ont emporté dans la sélection naturelle sur leurs effets négatifs – à la nuance près que ce progrès n'est pas exempt d'aspects eux-mêmes négatifs puisqu'il provoque de nombreux comportements rattachables à ce que les moralistes définissent comme le mal, généralement absents chez les animaux.

S'appuyant sur ces constatations, certains généticiens attirent aujourd'hui l'attention sur les risques que prendraient les sociétés actuelles en tentant d'éliminer par sélection prénatale les gènes associés à la schizophrénie et à l'autisme. On objectera à juste titre que ces troubles sont encore mal définis, de même d'ailleurs que les gènes éventuels susceptibles de les induire. Qu'est-ce exactement que l'autisme? Quels sont les gènes ou associations de gènes qui le provoquent, si origine génétique il y a? Mais la question soulevée n'est pas là. La question est plus profonde. Elle consiste à se demander si les troubles en question ainsi par conséquent que les individus affectés, auraient été et demeureraient-ils encore utiles ou non à l'évolution de nos sociétés. Si oui, est-il prudent de tenter de les neutraliser par diverses mesures, de mise à l'écart concernant les individus, et d'une sorte d'eugénisme prénatal concernant les embryons.

Sur ce dernier point, Simon Baron-Cohen, directeur du Centre de recherche sur l'autisme à l'université de Cambridge, pense qu'inactiver tous les gènes susceptibles de prévenir l'autisme pourrait priver l'humanité d'attributs lui ayant permis de se distinguer des autres espèces, ceci depuis les origines de l'hominisation. La tradition a toujours affirmé que la folie et le génie avaient partie liée. Mais au delà de cette constatation d'ordre général, on a pu récemment montré que des personnes présentant certaines formes non paralysantes d'autisme se révélaient mieux douées que les autres pour la systématisation, l'imagination symbolique, la créativité scientifique. Un certain nombre de grands découvreurs, de Newton à Einstein, ont été a postériori présentés comme porteurs d'autisme.

Il en est de même d'autres formes de troubles psychiques, lorsqu'ils se manifestent de façon atténuée, c'est-à-dire sans mettre en danger les porteurs et la société. C'est le cas des troubles dits bipolaires (psychose maniaco-dépressive) et de la schizophrénie, s'ils se limitent à des délires bénins ou passagers. Ceux-ci ont été depuis longtemps évoqués pour expliquer l'apparition de diverses formes d'innovation en rupture avec les comportements routiniers. L'on savait depuis longtemps que les artistes et créateurs font montre, à titre au moins épisodique, de comportements permettant généralement de diagnostiquer la schizophrénie: hallucinations, neurasthénie, sautes d'humeur, difficulté à se concentrer. Les mêmes traits peuvent être identifiés chez les grands dirigeants, hommes politiques ou chefs d'entreprises. On peut aussi leur associer, sans que la déviation soit aussi criante et meurtrière que lorsqu'elle se manifeste chez les dictateurs ou les prophètes au service de religions de combat, des comportements et idées relevant de la paranoïa. On notera cependant que si le succès social récompense ces personnes, il peut aussi s'accompagner d'une grande

Si l'on regarde le passé, des constatations analogues semblent s'imposer. L'anthropologie préhistorique, comme nous l'avions nous-mêmes rappelé dans notre essai « Le paradoxe du sapiens », peut difficilement expliquer sans recourir à de telles hypothèses l'apparition subite chez l'homo sapiens de formes innovantes d'outils et d'armes, après des centaines de milliers d'années de quasi stagnation. Il en est de même pour l'art dit des cavernes tel qu'il nous est parvenu. On ne voit pas comment sans de véritables hallucinations les premiers créateurs auraient pu tirer de leur cerveau les graphismes spectaculaires que nous admirons.

Des pratiques faisant appel à des plantes hallucinogènes identifiées aujourd'hui encore chez les derniers chamans pourraient expliquer ces inventions révolutionnaires. Mais pourquoi des dispositions génétiques nouvelles n'auraient-elles pas poussé les homo sapiens à découvrir et utiliser ces plantes, ce qui ne semble pas être le fait des animaux? L'addiction fréquentes aux drogues végétales chez ceux qui se veulent aujourd'hui créateurs pourrait découler de ces mêmes prédispositions.

Bref l'ampleur des bouleversements civilisationnels apportés par les homo sapiens à partir de leur apparition il y a quelques 200.000 ans ne paraît explicable que par des mutations génétiques particulières, induisant ce que nous appelons aujourd'hui des troubles psychiques et dont les autres hominidés n'auraient pas été le siège. Ces mutations seraient, comme toutes les autres, apparues par hasard et auraient été conservées du fait des avantages compétitifs qu'elles permettaient.

Des mutations génétiques

En pratique, les généticiens pensent avoir identifié un certain nombre de gènes associés à la production de médiateurs, tels la dopamine, ou la prédisposition de troubles tels que ceux mentionnés, ci-dessus, l'autisme, désordre bipolaire et schizophrénie, qui ne se trouvent que chez l'homo sapiens moderne. Un article 2) de Kate Ravilious dans le NewScientist du 07/11/2011 en donne quelques exemples, que nous ne reprendrons pas ici. Ces gènes étaient-ils présents chez les premiers homo sapiens, alors qu'ils ne l'étaient pas chez les autres hominidés, tels l'homo erectus et l'homo néandertalensis, pourtant capables de certaines performances technologiques et culturelles les distinguant des autres primates. La réponse semble affirmative.

Il est encore difficile et risqué de définir le profil génétique d'espèces disparues, soit par analyse des fossiles soit par séquençage rétroactif des génomes. Cependant les progrès sont rapides en ces domaines et tout semble confirmer l'hypothèse que nous résumons dans cet article. Les chercheurs imaginent, pour expliquer que les individus atteints de formes féconde d'autisme ou de schizophrénie aient été supportés, sinon encouragés par leurs contemporains, malgré les comportements hors normes voire violents qu'ils manifestaient sans doute par ailleurs, que parallèlement se sont développées dans les sociétés considérées de nouvelles formes de tolérance ou d'empathie à l'égard des déviants. Cette tolérance avait toute raison de s'exercer lorsque ces déviants apportaient au groupe des innovations que chacun était à même d'apprécier. C'est ainsi qu'aujourd'hui on tolère encore de véritables accès de pathologie mentale chez des chefs capables par ailleurs d'inventer les meilleurs solutions de survie pour l'entreprise ou le pays.

Il est possible de disserter à l'infini sur les liens possibles entre l'anormalité (telle que définie à une époque donnée) et le génie. Où commence l'anormalité? Que faut-il faire pour préserver ou susciter le génie? Ces questions sont très théoriques et peu susceptibles de recevoir des réponses immédiatement transposables en termes de normes socio-politiques. Elles permettraient cependant de regarder avec un oeil neuf le psychisme des hommes politiques actuels, notamment lorsqu'ils sont en charge de responsabilités importantes. Les études historiques ont multiplié les exemples de rois, dictateurs, tyrans, prédicateurs manifestement rendus dangereux ou inaptes par des formes plus ou moins reconnues de démence. Ils sont d'autant plus dangereux qu'ils induisent par sympathie des démnces analogues dans les populations. Mais qu'en est-il aujourd'hui?

Il paraît indéniable que les enchainements de crises aiguës comme celles qui affectent le monde depuis 2008 mettent fortement à l'épreuve le psychisme des dirigeants. Les cas en sont sans doute plus fréquents aujourd'hui que lors des guerres et des révolutions du passé, car la société technologique et de communication ne permet plus aux responsables de s'isoler afin de se protéger.

On constate ce phénomène ces temps-ci en voyant comment se dégradent rapidement les qualités de jugement et de décision des chefs de gouvernement après quelques mois d'exercice du pouvoir en période de crise. Certes, il faut déjà un égo très renforcé sinon quasi-délirant, pour s'engager, souvent très jeune, dans les parcours d'obstacles visant à l'exercice des responsabilités politiques suprêmes. Cependant certains chefs d'Etat ou de gouvernement, ayant passé les premières épreuves de l'élection, se comportent de façon très inégale devant les difficultés lorsque celles-ci s'accumulent. Certains, saisis par une sorte d'abris, se montrent capables de décisions susceptibles de changer l'histoire – dans le sens de la survie. de leur pays. D'autres se révèlent progressivement incapables de surmonter les épreuves. Ils entraînent leur pays et parfois le monde dans des choix de plus en plus inadaptés.

Les exemples de personnalités bénéfiques, qui dans la vie courante précédente se faisaient qualifier d'hors normes, autrement dit d'infréquantables, sont rares. On pourrait citer Winston Churchill ou Charles de Gaulle. Aujourd'hui, on n'en voit guère. Il est à l'inverse beaucoup plus facile de constater les baisses de régime sinon les effondrements de personnalités qui s'étaient fait une réputation de chefs sauveurs et qui ne résistent pas à la pression des obstacles. Le grand public ne s'en aperçoit que rarement mais les proches conseillers de ces dirigeants le constatent et parfois le font savoir. C'est ainsi selon certains rapports que Barack Obama serait ces derniers mois devenu à la fois irritable, dépressif et porté aux mauvais choix, tout le contraire du personnage raisonnable et sous contrôle qu'il semblait être encore deux ou trois ans auparavant.

On serait tenté dans ces conditions de penser que les peuples, même à travers le nivèlement imposé par le jeu démocratique, préféreraient des dirigeants encore plus autistes et schizophrènes qu'ils ne le sont naturellement, s'ils puisaient dans ces sortes de folies le génie capable de supporter les stress et proposer des choix salvateurs. Ce ne serait en tous cas pas dans le recours à une raison ordinaire que de tels dirigeants trouveraient l'inspiration nécessaire.


Notes
1) Sélection de groupe http://fr.wikipedia.org/wiki/S%C3%A9lection_de_groupe
* Voir aussi Jean-Paul Baquiast. A propos de la sélection de groupe http://www.automatesintelligents.com/echanges/2006/nov/groupselection.html
2) Kate Ravilious, Mental problems gave early humans an edge http://www.newscientist.com/article/mg21228372.000-mental-problems-gave-early-humans-an-edge.html?full=true


Partager cet article
Repost0

Articles RÉCents

Liens