Overblog Suivre ce blog
Administration Créer mon blog

Texte libre


Pourquoi ce blog ?

Cet ensemble de textes a été conçu à la demande de lecteurs de la revue en ligne Automates-Intelligents souhaitant disposer de quelques repères pour mieux appréhender le domaine de ce que l’on nomme de plus en plus souvent les "sciences de la complexité"... lire la suite

Recherche

27 mai 2013 1 27 /05 /mai /2013 16:30


Jean Paul Baquiast 27/05/2013

Dans un récent article, Celeste Biever (voir références ci-dessous), qui étudie pour le compte du NewScientist le thème de la conscience artificielle, fait état de deux projets visant à développer des embryons de telles consciences. Le point important pour nous est que leurs promoteurs s'éloignent des approches traditionnelles de l'intelligence artificielle, faisant appel à des programmes informatiques mis en oeuvre par des agents simulant les échanges entre neurones ou bases neurales censés se produire dans des cerveaux vivants, notamment les 3 aires généralement considérées comme intervenant dans les processus conscients, le thalamus, le cortex préfrontal latéral et le cortex pariétal postérieur.

L'espace de travail global

Une des principales raisons pour lesquelles ces approches ne sont pas considérées aujourd'hui comme très fécondes est qu'il reste difficile, sinon impossible, d'enregistrer les vrais échanges entre neurones se produisant dans ces aires. Bernard Baars depuis bientôt 30 ans, avait proposé qu'il s'agissait de l'Espace de travail global (Brain's global Workspace) où s'élaboreraient des pensées conscientes, à partir de la synthèse à grande vitesse de nombreux messages provenant des aires sensorielles et motrices du cerveau. Mais rien ne permet aujourd'hui de comprendre comment de telles synthèses pourraient résulter de multiples neurones s'excitant en parallèle à partir d'entrées entrant en corrélation.

Un modèle mathématique de ce processus a pourtant été proposé, dit « Information Integration Theory » selon lequel tout réseau, fut-il biologique ou informatique, pourrait devenir conscient dès lors qu'il disposerait d'un nombre suffisant (peut-être des centaines de milliers) de noeuds (nodes) capables de s'activer en parallèle. De la somme de ces parties devrait émerger un Tout, le sentiment conscient, qui serait plus que la simple addition des parties. Nous avons précédemment discuté une version de cette théorie en présentant le dernier ouvrage de Giulio Tononi, « Phi A voyage from the Brain to the Soul » . La difficulté à laquelle se heurtent de telles hypothèses est qu'il est encore impossible, faute de ressources informatiques suffisantes, de simuler le fonctionnement de réseaux assez complexes pour comporter les nombreux noeuds capables d'intégrer des informations en quantité suffisante.

LIDA

Très différents sont les deux projets évoqués par l'article de Celeste Biever. Le premier, LIDA (Learning Intelligent Distribution Agent ) propose un automate dont les « neurones » enregistrent une double série de cycles d'une milliseconde. produisant alternativement des états inconscients et des états conscients. Dans l'état de perception inconsciente, LIDA scanne l'environnement et copie les produits de ces perceptions dans sa mémoire sensorielle. Interviennent alors des détecteurs de particularités (features detectors) qui à leur tour scannent cette mémoire afin d'y détecter certains sons, couleurs ou mouvements. Ils les transmettent ensuite à un module logiciel qui les identifie comme des objets ou des évènements.

Dans une phase suivante, correspondant à l'équivalent d'une compréhension consciente, ces divers éléments peuvent être rapprochés par LIDA des contenus de sa mémoire à long terme. S'ils sont suffisamment concordants et significatifs (salient), ils s'intègrent au contenu d'un espace de travail global correspondant pour LIDA à un espace conscient. Ils servent par la suite à commander éventuellement des actions d'ensemble, permettant de recommencer le cycle. Dans une certaine mesure (mais nous le consulterons à ce sujet) ces processus paraissent voisins de ceux proposés par Alain Cardon pour construire une conscience artificielle. Inutile de préciser que dans le cas de LIDA ces différentes phases ont été au départ programmées par les concepteurs du système. Elles n'ont pas émergé spontanément.

XCR

Le projet XCR ( Experimental cognitive robot) développé par Pentti Haikonen, de l'Université de Sprigfield dans l'Illinois, paraît assez différent. Il abandonne résolument le recours à la programmation préalable des bases comportementales du robot. Pour Haikonen, l'interprétation du monde à travers les mots utilisés par le langage conscient, ainsi la couleur rouge, la douleur, ne s'impose pas en premier lieu au cerveau humain. Ce sont des objets ou des sensations physiques qui sont perçus, par le corps d'abord, le cerveau ensuite. XCR procède de la même façon. Le robot réagit non à un software, mais à la façon dont ses composants physiques, résistances, diodes, reçoivent l'interaction avec le milieu extérieur. Il enregistre directement l'information en résultant dans son hardware.

XCR, qui est un petit robot mobile, a été construit de telle sorte que, lorsqu'il est frappé avec une force suffisante, il s'arrête et recule. Il s'agit d'un réflexe d'évitement qui correspond chez l'homme à une réaction consciente à la douleur. Le robot est aussi capable d'une sorte d'apprentissage. Si, lorsqu'il est frappé, il tient un objet de couleur bleu, il associera ensuite cette couleur à la douleur et reculera.

On objectera qu'il ne s'agit ici que d'une « conscience primaire », également présente dans la plupart des organismes vivants. Mais, selon les concepteurs de XCR, rien n'empêche d'augmenter de plus en plus la gamme des réactions physiquement acquises au contact de l'environnement. Avec un peu de lyrisme, on pourra envisager la production de sensations et de sentiments.

On remarquera que les concepteurs de robots industriels, destinés à remplacer les ouvriers, se sont engagés depuis longtemps dans une direction voisine, bien que de portée beaucoup plus spécialisée. Ces robots sont-ils eux aussi devenus conscients, comme le laissent entendre les entreprises japonaises telles que Toyota, qui les emploient de plus en plus? A moins que ce ne soit les ouvriers qui soient devenus des robots (Voir à ce sujet Daniel Mermet, Cocorico Toyota , France Inter, lundi 27 mai 2013)

Les essaims de drones

Ce qui est certain, pour nous comme pour semble-t-il J. Kevin O'Reagan, cité par l'article, la meilleur façon de comprendre la conscience ne sera pas dans une exploration sans fin du cerveau, telle qu'entreprise actuellement par les deux projets, européen et américain, dits Human Brain Projects. Ce sera de tenter, par essais et erreurs, de construire des robots pouvant prétendre à une conscience semblable à la nôtre. Kevin O'Reagan est Directeur du Laboratoire Psychologie de la Perception, Centre National de Recherche Scientifique, Institut Paris Descartes de Neurosciences et Cognition

Rappelons que beaucoup d'industriels, là encore principalement américains, sont bien convaincus de ce qui précède. Ils y travaillent activement. Ainsi de nouvelles générations de drones coopérant de façon intelligente pour analyser des scènes militaires mais aussi des scènes civiles (tel que le simple dénombrement en temps réel d'une foule de manifestants), représentent l'horizon actuel, tant de l'industrie aéronautique que de l'intelligence artificielle évolutionnaire.

Références
* Celeste Biever 25 mai 2013
http://www.newscientist.com/article/mg21829171.900-consciousness-why-we-need-to-build-sentient-machines.html
* Information Integration Theory, de Giulio Tononi. http://www.biomedcentral.com/1471-2202/5/42/ Voir aussi notre article Phi, a voyage from brain to the soul http://www.automatesintelligents.com/biblionet/2012/sept/phi.html
* Lida http://www.newscientist.com/article/mg21028063.400-bot-shows-signs-of-consciousness.html
* XCR Experimental cognitive robot,
Voir Pentti O. A. Haikonen Consciousness and the Quest for Sentient Robots (payant)
http://link.springer.com/chapter/10.1007%2F978-3-642-34274-5_4

* Sur les robots militaires, voir Mark Bishop, Why we need to stop military killer robots now http://www.newscientist.com/article/mg21829170.300-why-we-need-to-stop-military-killer-robots-now.html

Repost 0
24 mai 2013 5 24 /05 /mai /2013 20:49

Who owns the Future ?

Par Jaron Lanier
Simon & Schuster. Mai 2013

Discussion par Jean-Paul Baquiast 24/05/2013

Jaron Zepel Lanier (born 3 May 1960) is an American computer scientist, best known for popularizing the term virtual reality (VR). A pioneer in the field of VR, Lanier and Thomas G. Zimmerman left Atari in 1985 to found VPL Research, Inc., the first company to sell VR goggles and gloves. In the late 1990s, Lanier worked on applications for Internet2, and in the 2000s, he was a visiting scholar at Silicon Graphics and various universities. More recently, he has acted as an advisor to Linden Lab on their virtual world product Second Life, and as "scholar-at-large" at Microsoft Research where he has worked on the Kinect device for Xbox 360.

Lanier is also known as a composer of classical music and a collector of rare instruments ; his acoustic album, Instruments of Change (1994) features Asian wind and string instruments such as the khene mouth organ, the suling flute, and the sitar-like esraj. Lanier was the director of an experimental short film, and teamed with Mario Grigorov to compose the soundtrack to the documentary film, The Third Wave (2007). As an author, Lanier has written a column for Discover magazine ; his book, You Are Not a Gadget (2010), is a critique of Web 2.0. In 2010, Lanier was nominated in the TIME 100 list of most influential people.

Home page http://www.jaronlanier.com/

Le tout récent dernier livre de Jaron Lanier rencontre un grand succès aux Etats-Unis. L'auteur est peu connu en France, notamment du fait de notre inculture persistante face au caractère de plus en plus dominant de la société numérique. Il avait cependant en 2010 commencé à attirer l'attention, par son pamphlet You Are Not A Gadget ou il prenait la défense de l'individu face à un « âge des machines » devenant envahissant.

Cette attitude attire d'autant plus l'attention, notamment dans la Silicon Valley, devenue la Mecque des développeurs d'applications en ligne, qu'elle provient d'un des gourous de ce monde, comme le montre sa bibliographie. Sans être à proprement parler devenu un gourou repenti, Jaron Lanier dans ces deux livres insiste sur les dangers que représente pour la démocratie le pouvoir pris désormais par ceux qui profitent des services rendus par le web pour se construire des monopoles au détriment de la grande masse des utilisateurs.

Il est difficile et d'ailleurs inutile de résumer un ouvrage proliférant dans tous les sens et d'ailleurs assez mal composé. Néanmoins, les critiques que formule ce « prophète de l'âge digital », comme le surnomment certains, méritent d'être prises au sérieux. On recevra par contre avec un certain scepticisme les solutions qu'il propose pour remédier aux défauts de l'évolution technologique en cours, tout en continuant à exploiter les progrès de cette même technologie et les services qu'elle pourrait rendre par ailleurs.

La séduction mortelle des « serveurs siréniques »

Jaron Lanier nomme « sirens servers » les start-up(s) devenues monstrueuses qui se sont construites depuis une dizaine d'années en exploitant la passivité des citoyens ordinaires face aux séductions des possibilités croissantes de communication offertes par les réseaux et applications du web. Le phénomène intéresse en priorité les Etats-Unis, qui sont les plus massivement interconnectés et qui hébergent, notamment dans la Silicon Valley, le plus grand nombre d'ingénieurs et d'entreprises maîtrisant ces nouvelles ressources. Mais la critique de l'auteur intéressera progressivement le monde entier, compte tenu du développement en cours de l'informatisation et de la téléphonie mobile, offrant des services en ligne de plus en plus nombreux.

Ce ne sont pas les réseaux eux-mêmes qu'il incrimine, mais l'usage qu'en ont fait quelques grands serveurs, qu'il assimile aux perfides sirènes dont le sage Ulysse avait voulu que ses marins se protègent en se fermant les oreilles à la cire. Il les désigne directement, tout en affirmant que leurs jeunes fondateurs, devenus multimillionnaires, étaient de ses amis. On retrouve ainsi en première ligne dans son livre Google et Facebook, accessoirement You Tube.

L'un, Google, a commencé son activité comme moteur de recherche, permettant d'explorer avec efficacité les centaines de millions de données mises en ligne par tous ceux qui s'expriment sur le web. Les énormes ressources en ordinateurs rassemblées par la suite dans ses centres serveurs lui ont permis de surpasser progressivement tous ses concurrents. Au delà du référencement des textes et des auteurs, il offre désormais de nombreux services liés à l'identification des lieux et des personnes. Avec Google Glass, il compte aborder dorénavant le domaine de la saisie directe des images provenant de ces lieux et de ces personnes. On devine que ce travail intéresse directement les services de police, de sécurité et d'espionnage. Google s'est illustré récemment en recrutant Ray Kurzweil, le prophète d'un futur cerveau artificiel global, qui ne manquera pas de suggérer des applications utiles aux agences travaillant pour la défense.

Or le point sur lequel insiste Jaron Lanier est que toute cette activité et le chiffre d'affaires en résultant, notamment par la vente de références publicitaires aux entreprises, repose en premier lieu sur les auteurs des textes ainsi identifiés par Google, en second lieu par les millions de personnes acceptant qu'elles-mêmes, leurs activités et leurs propriétés soient photographiées et numérisées dans les systèmes d'information proposés par Google. Mais ces auteurs et ces personnes n'imaginent pas pouvoir se retourner vers Google pour obtenir une rémunération fut-elle infime. du service rendu. Ils se satisfont d'être si l'on peut dire tirés de l'anonymat par le serveur.

Facebook offre des services dont la finalité est la même : identifier des personnes et des activités susceptibles d'exploitation commerciale ou sécuritaire. Mais, plus encore que chez Google, les nuages de données personnelles ainsi rassemblées sont en premier lieu fournis volontairement par les individus trouvant une satisfaction à se voir identifiés dans un système dont la portée est mondiale. Ils espèrent ainsi sortir de l'anonymat et se créer d'éventuels « amis ». Mais il s'agit le plus souvent de satisfactions narcissiques, plus ou moins illusoires, dont ils découvriront progressivement les dangers. Là encore, ils n'envisagent pas de demander une contribution à Facebook en contrepartie des informations pourtant vitales dont ils l'alimentent.

You Tube procède de même dans le domaine de la production et de la diffusion de contenus multimédia proposés bénévolement par des millions de créateurs. Ceux-ci sont reconnaissants au serveur du fait d'être mis en ligne, ce qui leur procure une petite notoriété immédiate. Mais ils ne se rendent pas compte du pouvoir énorme qu'ils confèrent sans le savoir aux responsables du serveur grâce aux utilisations commerciales et politique des données ainsi fournies.

Tous ces serveurs, comme les dizaines d'autres qui naissent et disparaissent régulièrement, attirent l'adhésion de la masse de leurs contributeurs en offrant un service gratuit de publication et de référencement. Ils ne se rémunèrent (officiellement tout au moins) que sur les services de publicité offerts aux entreprises intéressées par l'exploitation commerciale de ces données

Il faut voir que dans tous ces cas, comme plus généralement dans l'informatique professionnelle et scientifique, se sont construit dorénavant des « nuages » de données qui interconnectent et manipulent les milliards d'informations élémentaires ainsi fournies, souvent inconsciemment, par les acteurs sociaux et citoyens. Ce sont des agents informatiques complexes, répondant au nom générique d'algorithmes, qui exploitent ces usages. Ils en tirent des informations stratégiques utilisables en tous domaines : création de nouveaux services, de nouveaux marchés et profits, de nouveaux assujettissements aussi, dans le domaine notamment du contrôle à des fins commerciales, idéologiques et militaires.

Dans la concurrence entre serveurs et propriétaires de ces serveurs règne la loi selon laquelle le premier gagnant emporte toutes les mises. Se construisent ainsi des monopoles quasiment indétrônables, se jouant des limites territoriales et réglementaires éventuellement imposées par les Etats. On voit ainsi progressivement émerger quelques milliers d'individus super-puissants et super-riches, dominant des milliards d'individus sans pouvoirs, petit à petit dépouillés des moyens dont ils disposaient précédemment pour se donner des activités génératrices de revenus minimum. Jaron Lanier à cet égard est particulièrement sensible à ce qu'il nomme la disparition des classes moyennes, celles ayant construit notamment le « rêve américain ». Il ne leur restera plus désormais, dans un avenir proche, que le chômage ou des assistances sociales de plus en réduites car privées de bases.

Jaron Lanier est assez clairvoyant pour ne pas attribuer cette disparition des classes moyennes et des activités dite de l'économie réelle à la seule extension de l'économie virtuelle. Elles tiennent aussi au phénomène plus général de la robotisation et du remplacement des méthodes industrielles traditionnelles par des techniques de production directement inspirées de l'économie numérique. Il prévoit ainsi, dans les années à venir, que les techniques dites de l'impression 3D, qui selon des vues optimistes, devraient permettre la fabrication en tous lieux d'outils et de produits finaux les plus variés à partir d' « imprimantes » utilisant des matières premières synthétiques et pilotées par des programmes informatiques éventuellement fournis sur le web. Il ne s'agit pas d'un rêve puisque désormais il est proposé aux amateurs d'armes à feu de réaliser chez eux des armes plastiques qui, si elles n'ont pas la résistance de l'acier, permettent cependant très convenablement de tuer.

Jaron Lanier n'est pas le seul à évoquer les risques de la robotisation, si du moins celle-ci est utilisée systématiquement et sans précautions pour remplacer des emplois humains. Nous abordons régulièrement ce thème sur notre site. Il considère pour sa part, sans doute non sans raisons, que si la fabrication des robots comme celle des programmes dont ils sont dotés exigent un grand nombre d'emplois qualifiés, ceux-ci ne seront pas cependant en nombre suffisant pour compenser les pertes d'emplois supportées par une main- d'oeuvre moins qualifiées. A nouveau, il voit là se précipiter la disparition de classes moyennes qu'à juste titre il voudrait combattre.

Dans cet esprit, il s'élève avec virulence contre le mythe de la Singularité, censée pouvoir apporter l'abondance à tous dans un avenir proche grâce aux développements exponentiels et convergents de toutes les technologies. Pour lui, et sans doute là encore a-t-il raison, la Singularité, si elle se produit, ne bénéficiera qu'à une petite minorité, au pire quelques milliers de « geeks » de la Silicon Valley, au mieux quelques rares entreprises monopolistiques disposant du pouvoir technologique acquis par l'exploitation sans contreparties des anciennes compétences des classes moyennes.

Des remèdes quelque peu utopiques

Pour remédier à la situation de déséquilibre qu'il dénonce dans ce présent livre comme dans le précédent, Jaron Lanier refuse cependant d'en appeler à des interventions citoyennes, éventuellement relayées par des réglementations publiques, visant à rétablir un minimum d'égalité entre personnes, entreprises et pays. Il s'était fait connaître dès les années 2005 par sa dénonciation de Wikipedia et plus généralement des logiciels libres, dans lesquels il voit la encore, sous le mythe de la gratuité, l'emprise de quelques « connaisseurs » favorisés n'hésitant pas à priver les professionnels de leurs compétences anciennes.

C'est ainsi, a-t-il écrit, que les auteurs anonymes de milliers d'articles publiés sur Wikipedia ont contribué à ruiner les anciennes encyclopédies et conduit au chômage leurs auteurs. Il est indéniable que le gratuit finit toujours par être payé par quelqu'un. Cependant, faut-il pour autant condamner toutes les activités bénévoles, surtout si celles-ci reposent sur une tendance apparemment depuis longtemps inscrites dans les gènes animaux et favorisant l'empathie et le partage. Même si le mouvement des logiciels libres a perdu quelque peu de son dynamisme, face au renforcement des monopoleurs traditionnels, Microsoft, Apple, Amazon, sans mentionner IBM dans le domaine de l'informatique en nuage, il conserve tout son intérêt. Quand au foisonnement de Wikipédia de par le monde, même, si ce dernier comporte quelques erreurs ou manipulations, il reste un outil irremplaçable de la culture sur le web.

Plus sérieusement, Jaron Lanier propose pour supprimer l'inégalité structurelle entre les auteurs ou créateurs de données publiant gratuitement et les serveurs qui font du profit en exploitant sans contreparties les informations que les premiers ont mis en ligne, de réaliser une indexation en double sens. Un système d'identification greffé sur le web actuel devrait permettre de connaître non seulement les auteurs mais les différents personnes ou entreprises qui utiliseraient les données, textes ou images ainsi fournies par ces auteurs ou à partir d'eux. De mini-rétributions seraient alors calculées et versées par un système de facturation universel, dans le sens de l'achat comme de la vente, en provenance ou à destination de millions ou dizaines de millions d'utilisateurs du web. Jaron Lanier compte sur la puissance, en croissance exponentielle, des réseaux d'ordinateurs mondiaux pour pouvoir accomplir, en parallèle à leurs autres fonctions, ces tâches titanesques.

Nous pensons pour notre part qu'il ne faut pas connaître la complexité des opérations commerciales en ligne, fussent-elles les plus simples, pour proposer un tel système. Ceci ne devrait pas empêcher de réfléchir aux solutions susceptibles d'apporter des réponses aux vrais problèmes évoqués par Jaron Lanier, dans la suite du développement de plus en plus inégalitaire du web. Il en sera de même des tensions qui naitront inévitablement de l'extension de la robotisation. Celle-ci, sauf en cas de catastrophe politique de grande ampleur, détruisant les centres serveurs et les réseaux, constituera le paysage technologique (ou pour reprendre notre vocabulaire), le paysage anthropotechnologique des prochaines décennies. Mieux vaut s'y préparer.

Repost 0
10 mai 2013 5 10 /05 /mai /2013 17:35


Jean-Paul Baquiast 10/05/2013

Appelons colonisation, même si le terme a pris une consonance négative, le fait pour des ressortissants d'un groupe de pays donnés de s'établir durablement dans d'autres pays afin de les exploiter et d'y vivre. En ce qui concerne l'avenir de l'humanité en dehors de la Terre, notamment sur la Lune, Mars ou éventuellement un satellite de cette dernière planète, le terme peut être utilisé, en souhaitant seulement que, si cette colonisation se produisait effectivement un jour, elle soit aussi respectueuse que possible des environnements ainsi occupés.



Concernant des implantations humaines plus ou moins durables sur la Lune, les projets ne manquent pas. Notre satellite est proche, il recèle certainement des matières premières éventuellement exploitables. Il pourrait servir par ailleurs de bases pour des explorations plus lointaines. A ce jour, la firme privé Bigelow Aerospace et la Nasa auraient convenu d'étudier la mise en place à frais commun d'une base lunaire, éventuellement comportant des modules « gonflables » Image ci-dessus. Voir un article de Cosmiclog

Concernant Mars, aucune des grandes agences publiques, américaine, européenne, russe ou chinoise, n'envisage rien de tel pour le moment. Arguant de restrictions budgétaires, elles se limiteront sans doute à mettre en place soit de nouveaux robots explorateurs, soit des stations d'observation en orbite. Il faut rappeler en effet que les conditions sont très différentes. La distance implique des voyages aller et retour de plus de 6 mois, des conditions de télécommunications bien plus difficiles et, en ce qui concerne des missions humaines, le risque d'exposition à des radiations cosmiques pour lesquelles il n'existe guère encore de parade pratique.

Depuis longtemps cependant, entre autres groupes d'influence, la Mars Society américaine, dont il existe des versions européennes, dont l'une française, militent pour que les gouvernements prennent au sérieux le projet non seulement d'envoyer sur Mars des missions habitées de courte durée, mais d'y prévoir des bases d'implantation durables. Selon les prévisions (optimistes) généralement faites à ce sujet, la chose serait possibles vers 2030-35...à supposer que la crise économique actuelle ne s'aggrave pas.

Il se trouve cependant que, récemment, Dennis Tito, multimillionnaire américain et ancien astronaute, a proposé de financer une première mission de 2 ans qui conduirait deux personnes (de préférence un homme et une femme) à orbiter à proximité de la Planète Rouge, sans attendre le délai de 2030 proposé par la Nasa. Cette date, selon lui, est trop éloignée et ne maintiendrait pas l'enthousiasme. Le départ serait fixé à janvier 2018, date à laquelle Mars orbitera au plus près de la Terre. Sinon cela serait effectivement 2031.

Mais il existe à ce jour un projet beaucoup plus ambitieux, intitulé Mars One. Il a été lancé par un ingénieur néerlandais, Bas Lansdorp et vise à installer une colonie humaine sur Mars dès 2023. Les promoteurs du projet estiment que la chose serait réalisable dès aujourd'hui à des coûts relativement modérés (6 milliards de dollars US pour la première phase) en utilisant des techniques existantes et des composants déjà développés, notamment par la société SpaceX. Une particularité du projet est qu'il serait financé en partie par une exploitation médiatique de l'expédition, sur le modèle de la télé réalité. D'autres sociétés privées américaines, intervenant avec succès aujourd'hui dans le domaine des liaisons avec la station spatiale internationale et des vols orbitaux, pourraient envisager de participer. Pour des raisons stratégiques, divers gouvernements ne voudraient sans doute pas rester à l'écart.

Rien n'est encore cependant avancé concernant les solutions technologiques précises qui seraient développées: lanceurs et orbiteurs lourds, modules au sol, accès à d'éventuelles ressources au sol et, par ailleurs, protection durable contre les radiations, pertes de substances osseuses et musculaires, etc. Différentes perspectives circulent, mais autant que nous sachions, elles paraissent encore assez superficielles. Nous renvoyons à l'article en français de Wikipedia qui donne un bon résumé des questions posées et non encore résolues.



Une question de grande importance philosophique

Ceci n'a pas empêché Mars One de lancer une campagne de recrutement pour la sélection finale d'une trentaine de volontaires, qui constitueraient la première équipe de « colons », aux alentours des années 2030.

Se pose à cet égard une question dont l'importance humaine et philosophique est considérable: s'agirait-il, si les conditions techniques le permettaient, en 2030 ou plus tard, d'une mission sans retour? Autrement dit, les premiers colons devraient-ils envisager de demeurer le reste de leur vie sur Mars, dans l'espoir non seulement de s'y implanter avec succès, mais d'être rejoints (outre leur progéniture éventuelle), par d'autres terriens décidés comme eux de s'implanter dans l'espace, afin d'en assurer progressivement la colonisation et le peuplement.

Aujourd'hui, la question reste floue. Selon certains des promoteurs de Mars One, les moyens pour assurer le retour sur Terre ne seraient pas disponibles avant plusieurs décennies. Le plus raisonnable serait d'envisager un voyage sans retour, autrement dit un adieu à la Terre et aux terriens, en dehors des arrivées de nouveaux colons (et bien entendu des liaisons virtuelles). Mais se trouveraient-ils des humains capables de faire délibérément un tel choix, même s'ils en espèrent la gloire de rester durablement dans la mémoire des hommes. Les autorités publiques devraient-elles, pour leur part, l'encourager?


Le prix Nobel de Physique Gerard' t Hooft, « ambassadeur » du projet Mars One, a pour sa part expliqué dans un article du NewScientist en date du 6 avril 2013 qu'il soutenait fortement cette idée d'une colonisation sans retour, seule solution capable selon lui de créer un véritable flux exploratoire durable. Lire l'article "Nobel physicist: Give people a one-way ticket to Mars"

S'il en avait l'âge, selon lui, il serait sans doute candidat au départ. Nous voulons bien le croire. Nous voulons bien croire aussi, plus sérieusement, que le moment venu, les volontaires ne manqueront pas. C'est de cette façon que les premiers hominiens ont progressivement peuplé la Terre. On peut penser que cette capacité se trouve inscrite dans les gènes des espèces exploratrices, quelles que soient leur attachement à leurs berceaux d'origine.

 

Repost 0
8 mai 2013 3 08 /05 /mai /2013 17:36

t

Time Reborn: From the Crisis in Physics to the Future of the Universe

Lee Smolin
Penguin Books, 2013

Présentation par Jean-Paul Baquiast 08/05/2013

 

Lee Smolin bénéficie d'une notoriété certaine, non seulement aux Etats-Unis et dans les pays anglophones, mais aussi en France. Il s'agit d'un cosmologiste (un scientifique qui étudie l'univers dans son acception la plus large). Mais au lieu comme la plupart de ses collègues, de se limiter à des recherches ou publications réservées aux spécialistes, il prend le temps de publier des ouvrages en langage courant, dépourvus de la moindre équation, qui s'adressent non pas au grand public proprement dit, mais à ce que l'on pourrait appeler un public éclairé.

Il ne s'agit pas cependant de vulgarisation, au sens usuel du terme, car il n'hésite pas à y aborder les sujets les plus difficiles, ceux sur lesquels ni la philosophie ni la science n'ont encore réussi à s'accorder. En fait, comme le lui reprochent certains de ses collègues, il y expose ses propres critiques et hypothèses intéressant l'évolution actuelle et les perspectives de la cosmologie. Mais il le fait avec un tel art de la pédagogie que ses lecteurs non seulement sont à même de partager le cas échéant ses idées mais peuvent procéder à une révision très poussée de l'état des connaissances et des théories sur ces questions, en remontant le cas échéant à plusieurs siècles en arrière.


Ouvrages précédents

Lee Smolin s'est fait connaître par plusieurs ouvrages portant autant sur des questions scientifiques intéressant la cosmologie que sur leurs interprétations philosophiques. Nous avions à l'époque rendu compte de deux d'entre eux. Le lecteur pourra se reporter à ces articles, où peu de choses aujourd'hui ne nécessiteraient d'être actualisées.

Dans son premier livre The Life of the Cosmos, 1999, il propose d'appliquer la sélection naturelle à la cosmologie. L'univers que nous connaissons serait le résultat d'une évolution ayant affecté des univers plus anciens et plus primitifs. Il fait l'hypothèse qu'un univers peut en engendrer d'autres lors de la formation d'un trou noir. Les constantes fondamentales de la physique, comme par exemple la vitesse de la lumière dans le vide, seraient différentes d'un univers à l'autre. De telles variations pourraient entraîner des différences dans la probabilité de formation des trous noirs dans un univers donné, c'est-à-dire sur sa fécondité. Pour Smolin, les univers les plus féconds, c'est-à-dire susceptibles de produire le plus de "bébé-univers", sont les univers riches en carbone et en oxygène. Ce sont aussi par ailleurs des univers susceptibles d'abriter la vie telle que nous la connaissons. Une telle théorie est une réponse au principe anthropique fort.

Nous avions pour notre part, avec beaucoup d'autres critiques, souligné que cette hypothèse paraissait découler d'une transposition quelque peu naïve de la théorie darwinienne appliquée à la vie biologique. En effet elle ne peut être testée (aucune observation ou expérience ne pourrait la corroborer ou l'infirmer). De plus elle génère l'idée que le nombre des univers découlant de cette évolution serait immense, compte tenu du nombre encore plus grand de trous noirs, ne fut-ce que dans notre seul univers. Or ceci ne paraît pas crédible, si l'on peut dire, ou serait sans intérêt pratique. Nous pensions que Smolin en vieillissant aurait rangé ce premier livre au nombre des erreurs de jeunesse. Mais dans Time reborn, il reprend l'hypothèse, ce qui est un peu décevant. Il persiste à prétendre que l'étude des trous noirs de notre Univers peut affirmer ou infirmer sa théorie, ce qui implique un certain nombre de prédictions falsifiables.

En 2001, Lee Smolin a écrit The Three Roads to Quantum Gravity . On sait que l'approche dite de la gravitation quantique vise à rendre compatible la cosmologie relativiste et la mécanique quantique. Rien de tel n'est encore apparu possible. Le livre de Smolin faisait ce constat, mais il allait plus loin en mettant sur un pied d'égalité dans cette approche la théorie des cordes, une théorie un peu différente dite M-Théorie et une théorie dont il avait été le principal auteur, la théorie de la gravitation quantique à boucles. Cela lui avait valu beaucoup de procès en présomption, du fait que les deux précédentes approches avaient mobilisé et mobilisent encore des milliers de chercheurs et des crédits de recherche considérables, alors qu'il était à peu près le seul à défendre la troisième. Là aussi, nous pensions qu'il avait avec le temps un peu laissé de côté le concept de gravitation quantique à boucle, mais la lecture de Time reborn montre qu'il n'en est rien – même s'il convient que la gravitation quantique à boucles est loin de résoudre la question de la gravitation quantique.

Son ouvrage de 2006, The Trouble With Physics: The Rise of String Theory, the Fall of a Science, and What Comes Next, fait d'ailleurs ce constat. C'est une attaque direct de la théorie des cordes, qui selon lui se révèle incapable de répondre aux 5 grands problèmes de la physique théorique qu'il a identifié et qu'il définit comme tels: la question de la gravitation quantique, déjà évoquée, les questions fondamentales non traités par la mécanique quantique, la possibilité d'unifier les particules et les forces dans une théorie permettant de les rattacher à un phénomène d'ensemble non encore découvert, la question de savoir pourquoi les constantes fondamentales de la physique sont ce qu'elles sont et non différentes, et finalement la question de savoir à quoi correspondent les deux grands mystères non encore résolus de la cosmologie récente, l'énergie noire et la matière noire. Le livre a comme on peut le supposer déclenché une « guerre des cordes » entre théoriciens impliqués par ces critiques.

Time reborn


La lecture de Time Reborn: From the Crisis in Physics to the Future of the Universe, montre que Lee Smolin n'a rien perdu de son goût de la controverse. Mais nous dirions que dans l'ensemble, il défend une thèse qui paraît beaucoup plus acceptable, ne fut-ce qu'aux yeux d'une opinion publique formée à la philosophie scientifique occidentale, issue de l'époque des Lumières. Il s'agit de la matérialité ou, pour parler en termes de « réalisme », de la réalité du temps, le temps qui s'écoule, ou la « flèche du temps », dont chacun d'entre nous perçoit intuitivement l'existence. Il convient, propose-t-il, de rejeter les différentes théories physiques qui prétendent que le temps ne serait qu'une illusion n'ayant pas à être pris en compte dans les modèles de la physique, soit que ces modèles restent valables lorsque l'on renverse le sens d'évolution du temps, soit que le temps soit considéré comme un état non susceptible d'évoluer, soit que, comme en ce qui concerne la mécanique quantique, la prise en compte de la variable temps ne s'impose pas. Autrement dit, la perception de chacun d'entre nous, selon laquelle tout sans exception évolue dans le temps, serait parfaitement scientifique.

Lee Smolin assimile à cette façon de se représenter certaines choses comme intemporelles, hors du temps, les innombrables philosophies d'inspiration religieuse ou morale pour qui existerait, au dessus ou en dehors de l'univers quotidien où nous voyons le temps passer, un univers intemporel parfait où règneraient des valeurs elles-mêmes intemporelles qui s'imposeraient à nous. Il est certain que, pour les religions monothéistes notamment, s'impose un Dieu intemporel régnant au sein d'un paradis lui-même intemporel. La religion chrétienne propose même ceci comme un mystère que la raison doit admettre sans le discuter. On peut assimiler à ces croyances celles des mathématiciens postulant l'existence d'un univers des mathématiques flottant intemporellement au dessus de nous.

Pour Smolin au contraire la flèche du temps doit être considérée comme une réalité, la seule réalité même qui mériterait d'être prise en considération, toutes les autres, y compris l'univers et même les lois fondamentales que l'on croit y détecter, évoluant avec le temps. Il propose que ces lois soient considérées comme des systèmes dynamiques obéissant à ce qu'il nomme des ensembles de « relations », relations dont il espère que la physique de demain pourra présenter la théorie et dont le livre vise à esquisser les bases.

Il reconnaît n'avoir pas encore une telle théorie à présenter lui-même pour le moment, d'autant plus qu'il lui fixe des objectifs extraordinairement ambitieux: s'appliquer à l'univers entier et non à de simples sous-ensembles de celui-ci, éliminer les confusions et les paradoxes de la cosmologie contemporaine, répondre aux innombrables questions encore non résolues et, finalement, générer des prédictions originales et vérifiables concernant l'évolution du cosmos. S'il ne possède pas cette théorie, il pense pouvoir dans le livre et dans ses recherches ultérieures établir un ensemble de principes qui en guideraient la recherche.

Ce faisant, Lee Smolin veut s'inspirer du philosophe Gottfried Leibniz et de son Principe de Raison Suffisante. Pour ce dernier, toutes les choses et les évènements composant la nature devaient avoir des causes exactes. Sa croyance en un Dieu parfait lui commandait de penser que ce Dieu avait une raison justifiant tous les choix qu'il faisait et qu'aucun de ceux-ci ne pouvait être arbitraire. Smolin rejette explicitement toute référence religieuse, mais il n'en pense pas moins que des causes fondamentales imposent que tout ce qui arrive dans le monde obéit pour ce faire à une raison, s'opposant à d'autres raisons. Si l'on connaissait tous ces facteurs, il apparaitrait qu'aucune autre solution ne serait possible.

Aussi raisonnable que paraisse cette philosophie de la nature, elle est directement contredite par les interprétations de la mécanique quantique selon lesquelles, notamment, il n'est pas possible, autrement que de façon probabiliste, d'assigner une position précise à une particule. Ceci parce qu'une disposition particulière de la nature s'y oppose. Smolin, comme l'on pouvait le supposer, rejette cette assomption. Il se réfère à la théorie des variables cachées , dite aussi de Bohm et De Broglie, selon laquelle restent à découvrir des facteurs profonds de l'univers physique qui permettraient de lever cette indétermination. Mais comme l'on pouvait s'y attendre, il n'apporte pas d'éléments précis en ce sens, bien que le livre en évoque plusieurs.

Une autre des nombreuses idées sur lesquelles il appuie son effort pour reconstruire la cosmologie est nommé par lui l'erreur ou tromperie cosmologique (cosmological fallacy) . Il la définit comme la tentation d'appliquer à l'univers entier des lois ou principes, mêmes jugés fondamentaux, qui décrivent convenablement des sous-ensembles de cet univers. C'est pourtant ce que la physique, l'astronomie et la cosmologie au sens large ont décidé depuis longtemps de faire. Ceci non pas en se fondant sur un principe arbitraire, mais parce que manquent généralement des preuves certaines selon lesquelles nous ne pourrions pas appliquer au cosmos tout entier les lois qui opèrent à notre échelle de l'univers observable.
On appelle principe Copernicien ce postulat selon lequel notre partie du monde n'aurait rien de spécial et devrait se retrouver partout ailleurs. Certes, en permanence, des théoriciens proposent pour expliquer telle ou telle bizarrerie de l'observation que des règles différentes de celles observées ici puissent être évoquées, comme par exemple en matière de gravité modifiée. Mais rien encore de concluant n'a pu être accepté de tous.

Or le postulat principal auquel procède Smolin est que l'ensemble des règles que nous observons ici et maintenant en matière de lois fondamentales de l'univers n'ont rien de définitif. Comme tous les autres éléments de l'univers, il s'agit de données appelées à évoluer. Non seulement d'autres univers, dans l'hypothèse du multivers, pourraient être définis par d'autres lois. Mais au sein de notre propre univers, rien n'interdit de penser que les lois actuelles puissent être transformée avec le temps. Seul celui-ci, selon Smolin, sous la forme de la flèche du temps, doit être considéré comme fournissant un cadre immuable.

Cette hypothèse portant sur l'évolution possible des constantes fondamentales fera plaisir à tous ceux pour qui se référer à celles-ci impose des contraintes injustifiées à l'imagination de ceux qui cherchent à expliquer des anomalies apparentes dans les modèles actuels (telles que l'énergie noire mentionnée plus haut) par l'existence d'autres règles encore non précisées. Encore faudrait-il le prouver, notamment en raisonnant sur des exemples fournis par d'autres univers. Or nul ne peut le faire à ce jour, ne disposant que d'un seul univers, le nôtre.

Sur ce sujet, on pourrait objecter à Lee Smolin qu'il est le premier (comme d'ailleurs tous ses collèges cosmologistes théoriciens pour qui il est possible d'envisager l'existence d'un univers entier) à tomber dans l'erreur cosmologique. A supposer que nous fassions confiance à nos instruments d'observation, qui par définition ne portent que sur l'univers observable, qu'est-ce qui nous permet de supposer, en dehors de présupposés logiques, qu'il existerait non seulement des parties de cet univers s'étendant au delà de ces observations, mais même un univers entier? Et que serait à cet égard un univers entier, tant dans le temps que dans l'espace? Les modèles qu'en donnent la relativité générale pourraient-ils s'appliquer à lui? Les « non-modèles » qu'en donne de son côté la physique quantique, pour qui il n'est pas possible de décrire la réalité quantique, et donc un univers entier reposant sur ces interprétations, ne nous éclairent pas davantage.

Pour notre part, nous préférerions penser qu'envisager la perspective d'un univers entier découle d'une déformation de notre cerveau de mammifère, pour qui il est toujours vital de faire l'hypothèse qu'il y a toujours quelque chose (d'éventuellement dangereux) au delà de ce que nous proposent nos sens.

Conclusion provisoire

Ajoutons, à l'intention de lecteurs éventuels, que le livre est, comme les précédents, extraordinairement enrichissant. Dans une première partie, intitulée « L'expulsion du temps », il aborde tout l'historique des théories ayant d'une façon ou d'une autre conduit à se débarrasser du concept de temps. Ces théories sont pour la plupart encore très vigoureuses: notamment celle de la relativité et celles qui sous-tendent la cosmologie quantique.

Dans une seconde partie « La renaissance du temps », il propose les principes d'une nouvelle cosmologie telle qu'il la conçoit: des lois fondamentales susceptibles d'évoluer - une mise en compatibilité à un niveau supérieur de la relativité et de la physique quantique - l'émergence de l'espace (émergence qui, contrairement au temps, ne pourrait s'appliquer à celui-ci, considéré comme fondamental et donc non émergent) - les considérations applicables à la naissance, la vie et la mort de notre univers - la renaissance du temps à partir de la chaleur (entropie) et de la lumière - les questions relatives à l'infini, infini de l'espace ou infini du temps - et finalement l'avenir du temps lui-même. Une très abondante bibliographie, généreusement commentée, est jointe.

Il faudrait des heures pour résumer avec pertinence un tel ouvrage, des heures bien plus nombreuses,et beaucoup de compétence, pour discuter les propos et thèses de l'auteur. Nous ne pouvons qu'en conseiller la lecture. Puisqu'il s'agit de temps retrouvé, cela ne serait du temps perdu pour personne.


NB. Sur le temps, on pourra lire aussi Sean Carroll's From Eternity to Here: The Quest for the Ultimate Theory of Time,

Repost 0
27 avril 2013 6 27 /04 /avril /2013 16:28


Jean-Paul Baquiast 27/04/2013



Introduction

Le dernier ouvrage de Ramez Naam, The Infinite Resource: The Power of Ideas on a Finite Planet, University Press of New England (9 avril 2013) présente d'une façon très claire les choix que attendent l'humanité dès cette décennie: ou bien continuer à consommer et produire comme actuellement (business as usual) ou bien réformer radicalement, notamment par l'investissement scientifique, les comportements collectifs. Dans ce livre, l'auteur, expert informatique et économiste, a consulté et discuté très largement les différents travaux de ceux qui se préoccupent de l'avenir du monde. Nul n'est obligé de partager d'emblée ses idées. Certains lui reprochent d'être financé par la Fondation Bill Gates. Il reste que les problématiques évoquées, bien que déjà très largement exposées ailleurs par d'autres auteurs, n'ont toujours pas provoqué de changements sensibles dans les politiques mondiales.

Nous pensons pour notre part qu'au sein d'une Europe où les citoyens semblent s'estimer incapables d'agir sur des phénomènes dépassant croient-ils leurs capacités d'influence dans le monde, ce livre démontre au contraire que des marges de manoeuvre considérables existent, non seulement en Europe mais, pour ce qui nous concerne, en France même.

Malheureusement dans ce pays, un gouvernement se disant socialiste et interventionniste, répudiant donc en principe le libéralisme sauvage, n'a pas encore présenté aux citoyens des programmes d'investissements capables à la fois de relancer l'emploi et la croissance tout en évitant de contribuer à l'épuisement des biens communs. Nous proposons donc dans cet article, en nous appuyant sur les points forts du livre de Ramez Naam,(notamment dans la première partie) ce qui pourrait être une stratégie européenne en ce sens. A l'occasion nous feront allusion aux atouts sur lesquels la France pourrait s'appuyer pour jouer tout son rôle dans une telle politique.

Première partie. Les problèmes à résoudre

Ceux-ci sont bien connus, mais il faut les rappeler, ne fut-ce que pour contribuer à les faire mieux prendre au sérieux par des opinions préoccupées par des intérêts plus immédiats.

Comment nourrir les populations mondiales

L'humanité a converti environ un tiers des surfaces terrestres globales en vue de la production de nourriture. Les deux autres tiers sont constitués de déserts ou de montagnes inutilisables. Ce faisant, elle a multiplié les problèmes environnementaux, du fait des rejets d'engrais et de pesticides. L'agriculture consomme par ailleurs 70% des réserves d'eau douce, ressource dorénavant devenue partout rare.

Ceci n'empêche pas que la production agricole diminue globalement, les prix s'élevant, alors que la demande alimentaire ne cesse d'augmenter: en quantité dans les pays pauvres, en qualité dans les pays émergents. Selon la FAO, la planète devrait produire vers 2050 70% de nourriture en plus qu'aujourd'hui pour nourrir aux standards actuels la population de l'époque, à supposer que celle-ci se stabilise à quelques 10 milliards de personnes. A défaut, la disette reprendra, générant des troubles divers.

Arrêter la déforestation

La moitié des forêts primaires de la Terre a été détruite par les humains, afin d'y produire de la nourriture. Chaque année, à peu près la superficie de la Louisiane disparaît, principalement sous les tropiques. Ces forêts primaires sont pourtant le poumon de la Terre et un havre inestimable pour la biodiversité. Par ailleurs, elles maintiennent les sols en place. Grâce à l'évotranspiration, elles permettent aux pluies d'irriguer les sols sous leur vent. Elles produisent 20% de l'oxygène et 30% de l'eau douce terrestres. Il est donc irresponsable de continuer à les détruire.

Sauver l'eau douce


L'agriculture est le principal facteur mettant en péril les réserves d'eau douce. 70% des réserves disponibles servent à l'irrigation, principalement dans les pays développés. Pour y accéder, les rivières, les lacs et les aquifères sont de plus en plus asséchés. L'état actuel de la Mer d'Aral, jadis première réserve d'eau douce terrestre, illustre ceci d'une façon spectaculaire, mais qui n'est en rien une caricature. En Amérique du Nord, l'aquifère géant de l'Ogalla est en train de subir le même sort, sous l'effet des pompages excessifs. Il en est de même d'autres aquifères sous la vallée de l'Indus, en Chine. au Mexique ou en Iran.

Les grands fleuves souffrent de même d'une irrigation excessive, notamment en saison sèche: le Fleuve Jaune, le Nil, l'Indus le Rio Grande et le Colorado. Les estuaires reculent devant l'eau salée et les bancs de sable marins.

Arrêter la surpêche océanique

Le poisson constitue une source irremplaçable de protéines pour les pays pauvres. La survie d'un milliard de personnes en dépend. Le poisson pourrait être considéré comme une ressource renouvelable, s'il n'étais pas exploité à outrance, ceci jusqu'à épuisement de très nombreuses espèces.

Aujourd'hui plus d'un tiers de toutes les espèces océaniques ont vu leurs populations s'effondrer. Toutes les autres sont virtuellement surexploitées ou exploitées jusqu'aux limites. Si la pêche continue sans changements, la FAO estime que les pêcheries mondiales deviendront improductives vers 2050.

Faire face au changement climatique

Il s'agit du problème de fond, qui sous-tend tous les autres. La planète se réchauffe. Même si une part de ce réchauffement provient éventuellement d'un processus cosmologique à très long terme, son accélération rapide aujourd'hui est due à l'augmentation récente des émissions de CO2 et autres gaz à effet de serre. Cette augmentation à son tour découle de causes convergentes: utilisation en hausse continue des combustibles fossiles carbonés, déforestation, élevage...

La fonte de la calotte polaire arctique et de nombreux glaciers en résulte. Cette fonte accélère par effet en retour le réchauffement. Un océan arctique sans glaces estivales est aujourd'hui prévu par l'IPCC (Intergovernmental Panel on Climate Change) vers 2025-2030.

L'effet le plus spectaculaire de ce phénomène sera la montée des eaux océaniques, de 1 à 2 mètres à la fin du siècle. Cela menacera de submersion des dizaines de villes et zones industrielles du monde. Les protéger ou les déplacer entraînera des dépenses pharaoniques.

Le réchauffement provoquera de plus en plus, par ailleurs, des phénomènes climatiques extrêmes, sécheresses, inondations, tempêtes. Ceux-ci retentiront sur la production agricole et l'accès à l'eau douce. Des milliers ou dizaines de milliers de morts en découleront, comme en Russie en août 2010. Aux Etats-Unis l'ouragan Sandy combiné à la sécheresse du Middle west a causé $100 milliards de dommages.

Rappelons que par ailleurs l'augmentation de l'absorption de CO2 par les océans conduit à une destruction des massifs coralliens, essentiels pour la biodiversité dans les eaux tropicales.

Effets d'entrainement et points de non retour


Les divers phénomènes exposés ci-dessus s'entrainent les uns les autres, dans un rythme auto-accéléré. Ils risquent d'atteindre prochainement des points de non-retour (tipping points) à partir desquels le visage actuel de la planète pourrait être durablement changé. A ce moment aucune intervention humaine ne pourra modifier l'évolution. La Terre, planète liquide et de climat tempéré, favorable à la vie depuis son origine, pourrait devenir en quelques siècles, sinon décennies, une planète desséchée et sans vie telle que Mars. L'étude de cette dernière montre aujourd'hui qu'elle a perdu très rapidement, il y a 3 ou 4 milliards d'années, toutes conditions permettant la vie telle que nous la connaissons. La Terre constitue une exception dans le système solaire. Son caractère fragile ne devrait pas échapper aux humains qui dépendent d'elle pour survivre.

La place de l'Europe dans cette évolution

On considère généralement que l'Europe, par son climat tempéré et des siècles de vieille culture ayant permis de faire face aux difficultés naturelles, sera moins impliquée que les autres parties du monde dans l'accélération des difficultés ou catastrophes annoncées par les experts. Ce n'est pas inexact, dans le court terme. Mais le phénomène désormais inévitable de la mondialisation ne lui permettra pas de se transformer en forteresse à l'abri de frontières étanches. D'abord, les phénomènes climatiques ou océaniques l'atteindront comme partout ailleurs. Ensuite, les famines et autres crises de subsistance se produisant dans des régions déjà surpeuplées au regard des ressources actuelles entraineront nécessairement des migrations massives et probablement des guerres de défense des territoires dont les conséquences seront destructrices en termes de civilisation.

L'Europe, et la France en ce qui la concerne, n'ont pas d'autres solutions que mettre immédiatement au service de la lutte contre les phénomènes résumés ici l'ensemble de leurs ressources. Il s'agit de ressources technologiques, mais aussi de ressources en inventivité créatrice. Le devoir des gouvernements est de tout faire pour les mobiliser.

Ce sont ces perspectives qui vont être examinées dans la seconde partie de ce document.

Deuxième partie. Comment réagir

Face à la convergence des tensions ou ruptures entre besoins et ressources, telles que résumées dans la première partie, deux solutions sont généralement envisagées par ceux qui se préoccupent de ces questions. La première, très populaire dans certains milieux en Occident, mais clairement refusée par les pays émergents, consisterait à diminuer ce que l'on nomme la croissance. Ce terme trop vague signifierait réduire les consommations, à tous les niveaux: diminuer les dépenses alimentaires et les acquisitions de produits manufacturés, se déplacer moins, etc.

Il se trouve cependant que les politiques correspondantes, dites aussi décroissantistes, sont refusées systématiquement. D'abord dans les pays pauvres et chez les émergents, qui ne voient pas pourquoi refuser d'acquérir un niveau de vie dont les pays riches jouissent depuis longtemps et qu'ils refusent de partager. Ensuite dans ces pays riches eux-mêmes, dominés par ce qu'il faut bien appeler des oligarchies de possédants, qui s'accrocheront jusqu'au dernier moment à leurs privilèges.

Quant à la réduction de la croissance démographique, qui serait indispensable, elle ne relève pas d'une politique de décroissance. Il s'agit d'un processus très long qui semble principalement résulter de l'augmentation des niveaux de vie. Réduire ceux-ci risquerait de relancer la surnatalité dite de misère.

La seconde solution consisterait à augmenter l'offre. Mais nous avons vu que, en l'état des ressources disponibles, présentes et futures, cela ne serait pas possible. Ou plus exactement, cela ne serait possible que si l'ensemble des sociétés développées et émergentes s'engageait dans un effort systématique de recherche scientifique et technique, susceptible de générer de nouvelles productions, à partir de nouvelles ressources, inconnues à ce jour. C'est la thèse défendue par Ramez Naam.

Utopie dit-on? Pas du tout. Un tel programme a été présenté depuis une dizaine d'années par le mouvement des Singularistes. Il prolonge aujourd'hui en termes nouveaux l'ancien mouvement d'investissement industriel et scientifique qui avait fait la fortune de l'Occident (Europe et Amérique) à partir du milieu du 19e siècle. La science et la technique, convenablement dirigées, ont toujours été et demeureront le seul facteur sérieux de développement.

Aujourd'hui, pour des raisons complexes, une partie des Occidentaux rejettent la science et la technique, auxquelles ils imputent tous les maux sociétaux. Mais les Singularistes abordent la question de la science d'une nouvelle façon, susceptible de désarmer une partie des critiques qui lui sont faites en Occident. Pour eux, l'opinion publique n'a pas encore pris conscience d'un phénomène, déjà en cours depuis une vingtaine d'années, et qui, si tout se passait bien, révolutionnerait le 21e siècle. Il s'agit du développement exponentiel et convergent des principales technologies.

Cette expression signifie deux choses. D'une part ces technologies croissent à grande vitesse et de façon accélérée, illustrée par la Loi dite de Moore dans le domaine des composants électroniques. D'autre part la croissance d'une technologie bénéficie à toutes les autres, et réciproquement. Ainsi la généralisation des composants et nanocomposants électroniques permettra le développement de la biologie de synthèse qui à son tour permettra de relancer la mise en place d'agricultures résistant à la sécheresse.

Ceci ne se produit encore que de façon limitée, principalement dans des laboratoires. La grande idée, reprise par Ramez Naam, puis ici dans le présent texte, consisterait à convaincre les décideurs, notamment les décideurs politiques, du fait qu'encourager les recherches/développement (R/D) tous azimuts ferait progressivement disparaître les raretés actuelles et permettrait de nouvelles croissances qui n'épuiseraient pas les ressources de la Terre. Le résultat ne serait pas immédiat. Il demanderait selon les secteurs quelques années ou quelques décennies. Par ailleurs, il faudrait en payer le prix, c'est-à-dire investir fortement dans la R/D, en économisant sur les dépenses de consommation actuelles. Mais le succès pourrait être au bout du processus.

Pour en convenir, il faudrait abandonner, comme l'avait montré Ray Kurzweil il y a quelques années, la croyance au fait que le futur est prévisible par extrapolation du passé ou du présent. Le futur n'est pas prévisible en totalité. Des catastrophes restent toujours possible, tenant à de causes diverses. Mais des solutions heureuses jugées aujourd'hui irréalistes sont également à envisager.

Pour passer de ces généralités à des exemples concrets, il faut décrire quelques domaines où de nouvelles technologies, découlant de nouvelles recherches scientifiques, permettraient de changer le monde. On verra que ce ne seraient pas seulement les Etats-Unis ou la Chine qui pourraient investir dans ces directions, mais l'Europe et, en ce qui nous concerne, la France.

Les productions alimentaires

Démentant les prédictions des économistes malthusiens, tel Paul Erlich en 1968, la population mondiale a continué à croitre depuis cette date, grâce à l'augmentation des productions agricoles. Mais ceci s'est fait à un prix évoqué plus haut: destruction des forêts et des zones humides, pollutions chimiques, etc. Aujourd'hui la production moyenne par unité de surface ne peut augmenter encore à partir des moyens traditionnels. Pour sortir de cette impasse, il ne faut plus hésiter à modifier les capacités génétiques des plantes pour leur permettre de tirer un meilleur parti de la photosynthèse, exploiter des terrains pauvres et arides et produire elles-mêmes leurs propres fertiliseurs à partir de l'azote de l'air.

Les OGM (organismes génétiquement modifiés) suscitent un rejet dans certains pays, notamment en Europe. Mais cela tient au fait que ce sont des firmes privées, comme Monsanto, qui se sont appropriées ces techniques et en ont exclu les petits exploitants. Il faudrait au contraire que des laboratoires publics travaillent de façon ouverte à produire de nouvelles espèces et les mettre quasi gratuitement à la disposition des agriculteurs. Ceci ne pourrait cependant se faire que dans le cadre d'une véritable révolution politique, visant à faire de ces laboratoires de vrais services publics, comme c'est le cas en Europe dans certains domaines de la recherche médicale. Le coût des recherches serait alors financé par un impôt sur la consommation des nouveaux produits.

En matière de consommation de viande, il faudra certainement limiter le recours à l'élevage de boucherie traditionnel, dont les nuisances sont nombreuses et l'absence d'éthique paraîtra sans doute de plus en plus insupportable. Mais les techniques de production de tissus animaux in vitro pourront se développer de façon industrielle, à partir de protéines de synthèse, ceci pratiquement sans limites. Les produits obtenus seront de plus en plus comparables à la viande sur pied.

Il en sera de même en ce qui concerne les produits de la mer. L'élevage est aujourd'hui très critiqué, car les poissons produits le sont à partir de farines de poisson dont la production est tout aussi destructrice des milieux marins que la pêche destinée à la consommation humaine. De plus les fermes sont très polluantes. A l'avenir, il sera possible de mettre en place des fermes d'élevage en haute mer, s'inspirant de celles qui seront utilisées pour la production d'énergie marine. Les poissons seront nourris de protéines de synthèse.

Si toutes ces techniques étaient mises en oeuvre simultanément, à l'échelle du monde, on pourrait envisager, sans diminuer la production agricole totale, de réduire l'emprise de l'agriculture sur les terres arables, afin de rendre une partie de celle-ci à la vie sauvage, notamment à la forêt. La lutte contre la production des gaz à effet de serre et le réchauffement climatique serait la première à en bénéficier.

On voit que dans tous ces domaines, l'Europe et pour sa part la France, dont nous avons souligné les atouts en ce qui concerne l'agriculture ou l'accès à la mer, devraient jouer un rôle pilote pour la conduite des recherches et applications nécessaires. La France pour sa part, traditionnellement liée à l'Afrique en matière de coopération, pourrait jouer un rôle d'entrainement dont bénéficierait ce continent.

L'eau douce


L'eau douce ou potable ne représente que 3% de l'eau globalement présente sur la planète. Cette dernière est dans l'ensemble inutilisable car se présentant sous la forme de glaciers ou de banquises. Seuls 0,3 % de cette eau peut servir directement à l'irrigation et la boisson: 2% dans les rivières, 87% dans les lacs, 11% dans des zones marécageuses.

On a longtemps considéré, dans les pays littoraux manquant d'eau, que la dessalinisation de l'eau de mer offrait la solution. Mais les techniques jusqu'ici utilisées, par chauffage suivie de condensation, avaient des contreparties empêchant leur généralisation: coût élevé en énergie et en production de CO2 notamment.

Aujourd'hui des techniques faisant appel à des membranes semi-perméables inspirées des solutions utilisées par les membranes biologiques permettent de laisser passer les molécules d'eau en filtrant les sels. De l'énergie reste encore nécessaire, mais le coût en a diminué d'un facteur 10. Les mêmes techniques peuvent être utilisées pour filtrer et régénérer les eaux usées. A terme, on peut envisager que les besoins du monde en eau douce, si celle-ci n'est pas gaspillée, pourront être satisfaits.

L'énergie et la question du changement climatique

Pour stabiliser celui-ci il faudra réduire la production de gaz à effet de serre de plus de 100% dans les prochaines décennies. Mais dans le même temps, les besoins en énergie des pays émergents et des pays pauvres augmenteront sans commune mesure d'ici 2050.

Pourtant les ressources de la nature seraient largement suffisantes, si les humains s'organisaient pour mieux les utiliser afin de satisfaire les besoins en énergie. Encore faudrait-il s'affranchir des calculs à court terme conduisant à privilégier les énergies traditionnelles, ainsi que de l'influence politique des multiples intérêts associés à leur production, leur distribution et leur consommation. Le paradoxe malheureux tient au fait que pour financer les recherches destinées aux énergies nouvelles, il faut être riche et pour cela disposer non de l'accès directe à l'énergie fossile, qui ne suffit pas (on a parlé de la malédiction du pétrole) mais de toute la puissance industrielle qui s'est bâtie autour de l'exploitation de cette énergie. Or les détenteurs actuelles de cette puissance - concrètement les multinationales pétrolières et gazières - hésitent encore à financer des solutions rivales.

De véritables politiques volontaristes s'imposent donc, visant à privilégier des investissements qui par la force des choses, ne produiront pas de résultats avant plusieurs années, sinon plusieurs décennies. Ceux-ci concernent à la fois la production, à partir de sources dites renouvelables, et le stockage-distribution. Ces investissements ne rendront pas inutiles les efforts à conduire en parallèle pour généraliser les économies d'énergie. Mais là encore des investissements importants, non productifs à court terme, seront nécessaires.

Au point de vue scientifique, ces perspectives intéressent un très grand nombre de secteurs industriels déjà existant. Mais parallèlement, l'imagination des chercheurs fait apparaître en permanence de nouveaux domaines de recherche, dont la portée théorique est considérable. Il s'agit, comme en parallèle et d'une autre façon le domaine des nouvelles armes ou celui de l'exploration spatiale, d'un stimulant irremplaçable à la recherche théorique et appliquée.

Partout dans le monde est entrepris le mouvement consistant à remplacer progressivement les combustibles fossiles par de nouvelles sources d'énergie. Mais il pourrait être plus rapide si, comme indiqué ci-dessus, des décisions politiques explicites étaient prises en sa faveur.

Concernant l'énergie solaire à base de panneaux, on prévoit que l'électricité solaire sera dans une vingtaine d'années moins couteuse que l'énergie provenant des sources traditionnelles. Ceci même dans les pays asiatiques ou la consommation d'énergie ne cesse d'augmenter. Mais pour cela d'importantes innovations devront être conduites. Elles concerneront la nature des capteurs proprement dit, les modalités de leur déploiement au sol, les convertisseurs transformant le courant continu en courant alternatif, les réseaux de distribution, dorénavant dits « intelligents ».

Parallèlement les technologies de stockage et de conversion de l'énergie électrique primaire devront être radicalement améliorées, afin notamment de permettre l'alimentation des véhicules. De nombreuses solutions sont à l'étude, batteries au lithium, batteries dites solides (solid state) dépourvues d'électrolyte liquide, batteries métal-air. Aucune de ces solutions n'est encore pleinement opérationnelle, mais il faut poursuivre les recherches.

Parallèlement l'utilisation de l'hydrogène risque d'être bouleversée par une découverte récente. L'hydrogène produit par électrolyse de l'eau, encore très couteux, devrait pouvoir être remplacé par l'utilisation d'un hydrogène naturel généré, comme le gaz naturel, dans les couches géologiques profondes. Si cette découverte, initialement faite en Russie,se confirmait, et si l'extraction de l'hydrogène natif pouvait se faire comme annoncé sans toutes les conséquences dommageables de l'extraction du gaz de schiste, elle aurait de nombreuses conséquences favorables sur les perspectives ici envisagées. Un grand nombre de travaux et de publications sont en cours sur cette question dans le monde entier. La France, avec l'Ifpen et le Lied y tient une place très honorable. Sur la question, voir Sciences et Avenir . Voir aussi Enerzine.com .

D'autres sources d'énergie potentielle sont actuellement en développement dans tous les pays avancés, notamment en Europe et en France. Mais là encore s'impose le passage du plan expérimental au plan de la production à grande échelle. La presse évoque ces questions de plus en plus souvent, ce qui est une bonne chose afin de créer une motivation sociétale profonde.

Citons l'énergie éolienne et l'énergie marée-motrice. Dans ces domaines s'impose le passage à des unités de production de plus en plus importantes. Outre leur intérêt propre, elles permettront la relance des industries mécaniques mises en difficulté par la diminution de la demande dans le secteur de l'automobile.

L'énergie nucléaire, qui n'est encore (à peu près) maîtrisée que par un petit nombre de pays avancés, mais qui en attirent beaucoup d'autres, pose un problème particulier. Pour le moment, il ne s'agit pas d'une source renouvelable. D'une part elle repose sur la fission d'un métal de plus en plus rare, l'uranium. D'autre part, elle produit des déchets fortement radioactifs que l'on ne sait pas encore traiter et qu'il faut donc stocker. Enfin les usines de production d'électricité nucléaires nécessitent des mesures de sureté qui ne sont pas à la portée de tous. En cas de catastrophe, des millions de morts peuvent en résulter. Il s'agirait donc d'une forme d'énergie qu'en bonne logique il faudrait abandonner au plus vite.

Mais ceci ne se fera pas, pour une raison qui ne tient pas seulement aux calculs économiques des pays (tels que la France) ayant considérablement investi dans ce domaine. Elle tient au fait que maîtriser la fission donne une compétence industrielle et technologique sans rivale, réutilisable dans d'autres secteurs. Par ailleurs et surtout, cette compétence conduira inévitablement, dans un délai de quelques décennies, à la maîtrise de la fusion, dont les risques devraient être infiniment moindres et les retombées très nombreuses. La fusion (Hydrogène vers hélium) constitue le processus au coeur de la nucléosynthèse stellaire. Les pays tels que ceux rassemblés dans le consortium ITER, dont la France, pourront espérer du succès de la démarche des avantages compétitifs considérables.

Les matières premières minérales

Dans cette rubrique, il faut mentionner toutes celles qui sont indispensables au développement des technologies et industries citées précédemment, utilisant du fer, de l'aluminium, du cuivre, du nickel et autres métaux semi-rares. Les réserves mondiales en minerai seraient théoriquement suffisantes, si des politiques d'économie et de récupération sérieuses étaient mises en oeuvre parallèlement. Mais elles sont mal réparties. Beaucoup de pays développés, notamment en Europe, sont à cours de ressources. Par contre les pays pauvres, particulièrement en Afrique et Amérique Latine, sont bien dotés. Ceci devrait permettre que s'établissent des échanges sur un pied de réciprocité.

Une vraie question, qui a été soulevée récemment, concerne par contre les métaux rares, extraits à partir des terres dites rares. Ils sont indispensables dans pratiquement tous les usages résultant de la généralisation des technologies de l'électronique et des communications, comme de l'automatisation et de la robotique. Les pays industriels utilisateurs s'étaient reposés dans la décennie précédente sur les exportations de terres rares provenant de la Chine, qui dispose de ressources abondantes. Mais celle-ci entend désormais monnayer très cher cette ressource, sinon s'en réserver un usage exclusif. Ceci serait évidemment insupportable pour le reste du monde.

Il convient donc d'une part de rechercher d'autres gisements, de généraliser la récupération et surtout de favoriser la mise au point de solutions technologiques permettant de se passer des métaux rares si ceux-ci devenaient effectivement rares. L'objectif n'est pas aisé à atteindre, mais il présentera un effet d'incitation à la recherche fondamentale d'un très grand intérêt.

L'évaluation des externalités

Des progrès au niveau de toutes les technologies évoquées ci-dessus ne suffiront pas, s'ils ne s'accompagnent pas de progrès parallèles dans les sciences économiques et comptables. Malheureusement les investissements intellectuels dans ces disciplines ont principalement bénéficié aux sciences financières et à la spéculation boursière. Il est devenu urgent, dans la perspective d'un effort supposé massif et mondial de bonne gestion des ressources de la planète, que les scientifiques étudient en détail ce que l'on nomme les externalités, autrement dit des domaines qui restent étrangers aux sciences économiques traditionnelles et ne font pas l'objet de politiques concertées.

Il s'agira d'évaluer d'une part les coûts cachés, et la façon dont ils pourraient être réduits, d'autre part les biens collectifs fournis par la nature, dans lesquels l'humanité puise sans compter en s'imaginant qu'ils sont indéfiniment renouvelables. Parmi les premiers, nous pouvons mentionner les couts biologique du sous-développement, de la mal-nutrition et des maladies contagieuses naissant de la pauvreté. Ils ne touchent pas seulement les populations directement victimes, mais d'une façon ou d'une autre l'ensemble des sociétés, y compris celles se disant riches. Parmi les seconds se trouvent l'eau et l'air pur évoqués précédemment, les grands espaces libres, les forêts...tous biens dont ne découvre la valeur que lorsqu'ils ont disparu par surexploitation ou négligence.

Dans des sociétés qui n'attribuent d'importance aux personnes et aux choses qu'en fonction de leur valeur économique marchandisable, il est donc indispensable d'évaluer les externalités en termes aussi scientifiques que possible, afin de les faire entrer dans les comptabilités nationales et les comptes privés. Il sera alors nécessaire de les faire prendre en considération, par les particuliers comme par les collectivités. Inutile de préciser que ces évaluations doivent faire appel à des experts, afin d'être crédibles et d'être mises à jour.

Troisième partie. Préparer le grand futur

Appelons grand futur celui qui s'étendra des 20 aux 50 prochaines années, puis au delà. Vu la lenteur des évolutions intéressant les sociétés humaines, et la difficulté à s'accorder sur des politiques communes, cet avenir encore lointain doit nous mobiliser dès aujourd'hui. Ceci d'autant plus que les solutions technologiques qui seront nécessaires devraient commencer à être mises en oeuvre sans attendre. Ceci représenterait un effet d'entraînement important pour l'ensemble des sciences et des techniques, avec des retombées immédiates dans les domaines cités par la seconde partie de cette note.

Nous nous limiterons ici, pour ne pas dépasser le cadre d'un tel document, à un survol des questions posées. Elles donnent d'ailleurs matière à de nombreuses controverses, techniques ou politiques, que nous ne pouvons pas aborder.

En simplifiant, nous dirons que, sauf accidents de parcours, le futur s'organisera autour de trois grandes « révolutions » déjà inscrites dans l'évolution actuelle des sciences et des techniques: le cerveau artificiel, la biologie synthétique, un début de « conquête » du système solaire.

Le cerveau artificiel


Ce terme très général désigne les progrès (exponentiels et convergents, selon les termes des Singularistes) qui caractérisent aujourd'hui les neurosciences, l'intelligence artificielle, la robotique autonome et le domaine dit de l' « homme augmenté », c'est-à-dire augmenté par des prothèses de plus en plus efficaces.

Les neurosciences, sous leurs divers aspects, vont bientôt commencer à bénéficier des acquis des deux grands programmes d'étude du cerveau et du système nerveux des animaux supérieurs, lancés cette année en Europe et aux Etats-Unis, sans mentionner ce qui se fait en Chine. Ces programmes, dits Human Brain Projects, se développeront inexorablement, vu l'intérêt stratégique qu'ils présentent pour les sciences cognitives, la médecine et aussi la défense.

Dans le même temps, l'Intelligence artificielle (IA) sera conduite à simuler avec de plus en plus de précision la façon dont, spontanément ou d'une façon délibérée, se mettent en place dans les grands réseaux caractérisant les sociétés numériques, des centres de décision analogues à ceux existant au sein des cortex humains ou des groupes sociaux. On a évoqué récemment le « trading haute fréquence » qui conduit les intérêts financiers à déléguer la gestion de leurs intérêts à des algorithmes de plus en plus autonomes. Ceci ne fera que se développer, dans un nombre croissant de domaines, la surveillance dite sécuritaire ou la santé, par exemple.

Enfin, parallèlement, la robotique produira des animaux et humains artificiels, dotés de corps beaucoup plus efficaces que les corps biologiques et capables d'utiliser par ailleurs tous les systèmes cognitifs étudiés par l'IA. Ces robots seront de plus en plus autonomes, c'est-à-dire capables de prendre seuls des décisions. Ils le feront soit individuellement, soit en groupes ou essaims. De tels robots sont déjà indispensables pour explorer les environnements inaccessibles à l'homme, ou dangereux. Il n'y aura pas de conquête spatiale sérieuse sans eux.

On appelle « homme augmenté » l'homme doté, à titre temporaire ou permanent, de toutes les aides apportées par ces diverses techniques. Les militaires s'y intéressent évidemment en priorité, mais aussi les thérapeutes. Bientôt, le grand public lui-même voudra bénéficier de ces avantages, si le cout en devient abordable.

Il en résulte que, selon les prévisions les plus prudentes, un véritable cerveau artificiel doté des capacités intellectuelles du cerveau humain, devrait voir le jour dans les 20 à 30 prochaines années. Il sera évidemment connecté aux humains artificiels produits par la robotique et doté des capacités d'intelligence procurées par l'IA en réseau.

Dans quelles conditions, économiques, politiques, sociétales, cette première révolution se mettra en place? Les citoyens d'aujourd'hui ne peuvent pas refuser de s'en préoccuper, d'abord en s'informant, ensuite en essayant d'orienter les développements dans le sens d'une meilleure démocratie.

La biologie synthétique

Ce terme, que l'on peut confondre ici avec celui de biologie artificielle, désigne des directions de recherche déjà bien engagées, consistant, dans un premier temps, à « construire » des virus ou des bactéries en assemblant de façon artificielle les différents composants naturels de ces organismes, détachés de l'organisme initial et recomposés pour constituer des organismes dotés de nouvelles propriétés. Il s'agit donc d'aller plus loin que l'actuel génie génétique, consistant à ne modifier que certains gènes d'une espèce donnée. Les perspectives sont nombreuses: obtenir par exemple des bactéries ou micro-organismes capables d'utiliser la photosynthèse pour produire des matières premières énergétiques ou alimentaires.

Mais les ambitions de la biologie synthétique ne se limitent pas à ces premières phases. Pour aller au delà, il s'agira de reconstruire des ADN et composants moléculaires de synthèse, capables de s'affranchir d'une partie des contraintes de la biologie naturelle. De tels organismes pourront alors se développer dans des milieux a priori incompatibles avec la vie telle qu'elle existe aujourd'hui.

Les paléobiologistes, par exemple, ne désespèrent pas de pouvoir avec ces méthodes reconstruire des organismes disparus. Même s'ils n'y réussissent pas, ils pourront se consoler en faisant apparaître des organismes n'ayant jamais existé, qui pourront survivre dans nos sociétés.

On considère généralement que la « révolution » annoncée par la biologie synthétique sera aussi importante que celle annoncée par les neurosciences de l'artificiel. Les deux domaines de recherche se conjugueront d'ailleurs.

La conquête du système solaire


La plupart des futurologues considèrent que l'avenir des sociétés humaines sera conditionné par la capacité de s'adapter et survivre au sein du système solaire. Différentes directions devront alors être explorées: mieux connaître au plan scientifique non seulement le système solaire mais le cosmos en général, exploiter les ressources en matière premières des planètes proches ou de certains astéroïdes, s'établir de façon temporaire ou permanente sur des planètes voisines, la Lune et Mars en priorité.

Ceci dit, rien ne permet à ce jour d'affirmer que les organismes humains, compte tenu de leurs capacités physiques actuelles, pourraient durablement s'acquitter de ces diverses tâches. Par contre, les robots évoqués dans les paragraphes précédents le peuvent. Il en sera de même de systèmes biologiques artificiels spécialement définis pour ces tâches.

La conquête spatiale, puisqu'il faut bien parler de conquête, n'en déplaise aux bonnes âmes, ne pourra donc prendre une véritable dimension stratégique, qu'en faisant appel aux différentes technologies que nous avons résumées ci-dessus. Si des humains s'établissaient durablement sur une planète (en abandonnant éventuellement toute perspective de retour sur Terre), ce ne serait qu'après de longs travaux d'accueil confiés à des organismes artificiels. Ce ne serais donc sans doute pas avant un siècle, sinon plus. Mais peut-être cette affirmation est-elle trop pessimiste.

Conclusion

Comment financer toutes les recherches et investissements évoqués dans les deux dernières parties de cet article? Ceci ne sera pas possible sans reconvertir à cette fin des ressources humaines, technologiques et industrielles consacrées actuellement à la guerre et à la consommation, notamment à la consommation somptuaire analogue à du gaspillage dont certaines classes dirigeantes sont prodigues.

Pour prélever dans les ressources ainsi consommées et les rediriger vers des investissements de recherche scientifique et technique, chaque Etat ou groupe d'Etats fera appel à sa logique politique. Concernant un régime de type autoritaire comme la Chine, ce sera principalement à l'impôt. Aux Etats-Unis, ce sera sans doute à l'emprunt. Concernant les pays européens et notamment la France, où les épargnes des particuliers restent fortes, nous avions précédemment suggéré une méthode recommandé par des économistes amis (notamment Joseph Leddet, conseil indépendant en placements et auteur de la Gazette des Changes). Nous lui donnons la parole:

« Plutôt qu'un emprunt d'Etat, je proposerais, ainsi que déjà écrit antérieurement, un fonds d'investissement stratégique, à l'échelle européenne,  abondé par l'épargne privée (particuliers et entreprises) et offrant un rendement annuel assuré (payé)  par l'Etat, un genre de partenariat public/privé au sens large, avec des parts cotées en Bourse pour permettre aux investisseurs de récupérer leur cash s'ils le désirent.
Pour l'Etat, cela revient un peu au même qu'un emprunt perpétuel, mais c'est plus attrayant en termes de présentation externe ».

Repost 0
18 avril 2013 4 18 /04 /avril /2013 08:34

 

Incognito: The Secret Lives of the Brain

David Eagleman 2012.

Traduction française Robert Laffont, 2013 par Pierre Reignier

Présentation et commentaire par Jean-Paul Baquiast 18/04/2013

 

David Eagleman est assistant professeur de neuroscience au Baylor College of Medicine (Texas). Il y dirige depuis quelques années un laboratoire qu'il a contribué à créer, le  Laboratory for Perception and Action. Il est donc, dans le monde des spécialistes du cerveau, quasiment un jeune homme, d'autant plus qu'il atteint à peine la quarantaine. Pourtant le nombre considérable de ses travaux, publications, responsabilités dans divers organismes, donne le vertige. On verra d'ailleurs en lisant son curriculum vitae qu'il ne s'est pas seulement fait connaître dans le domaine des neurosciences, mais aussi entre autres dans la création littéraire, la musique ou l'étude de la responsabilité pénale. Il y a partout apporté un regard scientifique, critique et constructif, fort apprécié. Il maîtrise également l'art de la communication, car il utilise pour se faire connaître et recruter des suiveurs (« followers ») toutes les ressources du web et du web 2.0.

Ceci ne veut pas dire qu'il cède à la facilité, en flattant les opinions dominantes. Dans un pays, les Etats-Unis, où ceux qui refusent les conceptions spiritualistes du monde , très largement majoritaires, sont souvent considérés comme des esprits dangereux, il a très tôt affiché une vision matérialiste, notamment dans le domaine de l'esprit. Bien qu'élevé dans la religion hébraïque, il s'est très tôt convaincu, au contraire de l'ensemble des religions, de ce qui paraît une évidence aux yeux des matérialistes modernes: le cerveau n' est pas le siège d'une âme ou d'une conscience inspirée par un esprit supérieur. Il s'agit seulement d'un ensemble de systèmes biologiques produisant des représentations du monde adaptées, dans chaque espèce dotées d'un système nerveux central, aux exigences de la survie.

Mais Eagleman veut se distinguer des matérialistes réductionnistes pour qui les fonctions les moins explicites du fonctionnement du cerveau, produisant notamment la conscience de soi ou l'imagination créatrice, peuvent être expliqués en totalité par les échanges entre neurones ou aires cérébrales identifiables aujourd'hui avec les moyens encore rudimentaires de l'imagerie sous ses diverses formes. Il préfère donc se dire, dans ces domaines tout au moins, agnostique ou plus exactement « possibiliste » (possibilian). Cette position, qui devrait d'ailleurs être celle de tous les scientifiques, signifie qu'il reste ouvert à toutes les hypothèses, non encore vérifiables aujourd'hui de façon expérimentale, pouvant expliquer ce qui dans le fonctionnement du cerveau supérieur reste encore mystérieux. Il fait à cet égard allusion, comme l'avait fait un de ses inspirateurs, le généticien Francis Crick, aux interprétations de la mécanique quantique ou à celle de la cosmologie, encore en discussion, relatives aux caractères relatifs de l'espace et du temps. Nous ne pouvons que le suivre dans cette posture d'ouverture.

Nous sommes « plusieurs »

Le dernier livre de David Eagleman, consacré au rôle du cerveau et à la façon dont chez l'homme cet organe fait émerger ce que l'on nomme l'inconscient, a rencontré un grand succès aux Etats-Unis. Il le doit d'abord au style familier adopté par l'auteur, non exempt d'expressions légèrement argotiques. La traduction française, qui vient d'être mise en librairie, a bien respecté ce style. Ceci contribuera certainement à son succès. Cependant, trouver ici et là des termes tels que « le cortex fait le boulot » peut gêner certains lecteurs.

Concernant le fond, résumons le livre en disant qu'il insiste principalement sur ce qu'il appelle les illusions de la perception produites par le fonctionnement quotidien du cerveau. L'auteur a consacré ses premières recherches à la perception du temps, variable selon les sujets et les conditions de l'observation. Il a étudié aussi la synesthésie, propriété qui serait présente chez 10% des humains, et qui ne permettrait pas de distinguer sur le mode classique les perceptions de sons et de couleurs. A partir de cela, il présente de nombreux exemples montrant comment le cerveau inconscient propose au jugement conscient ce qu'il faut percevoir et les actions qu'il faut adopter en conséquence. Il rappelle aussi les principales expériences cliniques, résultant d'affections ou d'accidents handicapant telle ou telle partie du cerveau, et qui produisent des erreurs de perception et de jugements chez les patients atteints.

Observons pour notre part que cette longue énumération des illusions relatives aux témoignages des sens ne surprendra que les lecteurs naïfs en matière de psychologie cognitive. Tous ceux disposant d'un minimum de connaissances en neurosciences, exposées notamment dans les ouvrages de Gerald Edelman, Antonio Damasio, Jean-Pierre Changeux et de bien d'autres (commentés sur ce site), ne feront aucune découverte.

David Eagleman explique ensuite longuement que les illusions de la pensée consciente tiennent au fait que notre personnalité n'est pas une, produite par un organe homogène que serait le cerveau. Le cerveau est fait au contraire d'une multitude ou mosaïque de boites juxtaposées qui interviennent dans la perception et la décision d'une façon que la conscience centrale ne perçoit pas. Ceci se produit d'abord à grande échelle, puisqu'il est usuel de distinguer aujourd'hui entre le cerveau dit rationnel, celui de l'hémisphère gauche qui est aussi le cerveau du langage, et le cerveau affectif ou des émotions, globalement rattaché à l'hémisphère droit.

A l'intérieur de ces grandes divisions, on peut identifier un très grand nombre de centres gérant, parfois en recouvrement partiel, et de façon généralement inconsciente, des éléments particuliers de la perception et de la décision. La encore, que nous ne soyons pas « un » mais « plusieurs », s'ignorant généralement les uns les autres, ne surprendra que les naïfs. Au moins depuis Freud, cette vision avait fait son chemin, en se précisant à chacune des observations du cerveau en action permises par les neurosciences. Mais, il est vrai, elle reste difficile à admettre par les personnes élevées dans les illusions de la pensée occidentale, privilégiant le libre arbitre de la conscience individuelle.

David Eagleman rappelle, pour expliquer les origines de cette complexité, que la plupart des comportements humains et des qualités qui caractérisent les individus trouvent leurs origines, d'une part dans la combinaison de déterminismes génétiques acquis par l'espèce au cours de l'évolution et d'autre part dans les modalités d'expression de ces gènes, dès la naissance de l'individu, en interaction avec le milieu dans lequel celui-ci est plongé. Il en résulte une très grande variété de solutions de détail à l'intérieur de grandes catégories communes à tous les hommes. Cette diversité est généralement ignorée par l'opinion, qui croit pouvoir expliquer les comportements humains par des causes simples, explicites et répétitives se retrouvant d'un individu ou d'un groupe social à l'autre.

Comment par ailleurs les différents « Je » qui nous composent et s'expriment à tous moments finissent-ils par produire un Je global qui nous résume, à nos yeux comme à ceux des autres? David Eagleman se rallie sur ce plan à la solution la plus communément adoptée aujourd'hui, celle du darwinisme neuronal. Les différentes composantes du cerveau sont en conflit darwinien pour s'imposer. En fonction des circonstances de lieu et de moment, c'est l'une d'elles qui momentanément l'emporte et prend le pouvoir. On peut accepter cette façon de voir les choses. Reste qu'elle est fortement simplificatrice. Les conflits darwiniens se manifestent au sein des nombreux plans de la personnalité. L'unité du comportement final en résultant à tous moments peut n'être qu'apparente, un geste ou un propos manifeste pouvant cacher au même instant de nombreux autres qui ne s'expriment pas avec la même évidence. D'innombrables contradictions apparentes en résultent, l'individu recélant de nombreuses parties noires (selon l'expression de Jérome Cahuzac) qui le définissent mieux que son comportement observable. C'est ce que savent tous les psychologues.

L'auteur montre aussi que ces différents déterminismes ont été et demeurent encore très largement ignorés par les croyances communes. Ceci parce que le comportement du cerveau et la façon dont il dirige l'insertion du sujet dans son milieu ne sont pas perçus consciemment par ce même sujet. Environ 90% des mécanismes vitaux faisant l'objet du contrôle par le cerveau sont inconscients. C'est d'ailleurs très récemment qu'ils ont commencé à être analysés par les neurosciences et les sciences du comportement. La chose reste très difficile à admettre, même par les plus avertis d'entre nous. Je veux bien reconnaître que je ne puis analyser les acquisitions sensorimotrices devenues inconscientes grâce auxquelles je m'équilibre à bicyclette, suite à un apprentissage souvent douloureux. Par contre j'ai toujours beaucoup de mal à admettre que des expériences enfantines souvent très précoces aient pu déterminer mes préférences sexuelles.

Il en résulte que là où l'opinion commune estime que l'humain est piloté, sauf en ce qui concerne les domaines strictement organiques, par un Je doté d'un libre-arbitre, généralement qualifié d'esprit ou, par les croyants, d'âme, rien de tel - sauf peut-être 10% de l'ensemble - ne relève de l'intervention d'un tel esprit conscient et responsable. Tout le reste est produit par des commandes inconscientes certes extrêmement subtiles et adaptatives au mieux des contraintes de la survie, mais ne manifestant aucune des propriétés attribuées à l'esprit et à son libre arbitre par la philosophie traditionnelle: possibilité de délibérer, de faire des choix responsables entre options différentes, d'exprimer les valeurs censées caractériser ce que l'on nomme le propre de l'homme. D'ailleurs, pour ruiner définitivement cette illusion, David Eagleman rappelle que le siège du libre arbitre ainsi décrit ne se trouve nulle part dans le cerveau.

Il en conclut donc que le concept de libre-arbitre n'a pas de sens, autrement que dans le langage courant, et à des fins utilitaires, relevant de ce que l'on pourrait appeler le management des organisations sociales. Certes, si les sociétés institutionnalisaient l'idée, notamment en termes de législation pénale, que les décisions bonnes ou mauvaises des individus sont produites par des déterminismes sur lesquels l'individu n'a pas prise, aucun ordre social ne pourrait s'imposer. Cependant ses réflexions en matière de « neurosciences pénales » le conduisent à penser que si les  criminels doivent être isolés, dans beaucoup de cas les neurosciences de demain devraient permettre à la justice de devenir de plus en plus préventive, plutôt que répressive. Encore faudrait-il que l'encombrement des cours et des prisons laissent aux institutions pénales le temps de traiter les cas individuels avec tout le soin nécessaire...ce qui n'est pas le cas aujourd'hui

Mais une nouvelle fois, tout en partageant le point de vue de David Eagleman, nous sommes obligés d'observer que tout ce qui fait dans ces divers domaines, aux yeux d'une lecture superficielle, la grande originalité de son livre, est déjà très largement acquis par la science et la philosophie scientifique occidentale. Certes, la grande majorité des personnes ignorantes qui liraient éventuellement ce livre, incités à le faire par une critique généralement louangeuse, feront peut-être des découvertes, Mais ce ne devrait pas être le cas de nos lecteurs, rompus depuis longtemps à la prise en considération de la complexité du cerveau et des contenus de pensée qu'il génère.

Un vide, la réflexion sur la conscience

Pour pousser un peu plus loin la critique de ce livre, nous pouvons nous étonner du fait que, s'il règle à peu près convenablement son compte au concept de libre-arbitre, il ignore presque complètement celui de conscience. Or celui-ci est autrement plus pertinent, y compris aux yeux des matérialistes. La conscience sous ses différentes formes, primaires ou supérieures, exprime un caractère apparu il y a des millions d'années dans le règne animal, ignoré (semble-t-il) du monde végétal, et devenu caractéristique de l'homo sapiens récent, sous ses formes collectives puis individuelles. La conscience ne relève pas entièrement du fonctionnement du cerveau, mais celui-ci y participe très largement. Renvoyons le lecteur au petit dossier sur ce sujet que nous avions établi il y a quelques années, et qui demeure dans l'ensemble d'actualité.

Or l'existence de la conscience pose un défi toujours renouvelé aux neuroscientifiques. Il s'agit d'une propriété matérielle, ne s'inspirant en rien d'une hypothétique conscience universelle d'origine spiritualiste. Mais il reste à préciser comment elle émerge, dans un cerveau individuel comme au plan collectif. Il reste aussi à préciser comment les représentations du monde ou les prescriptions d'action qu'elle produit peuvent influencer les déterminismes comportementaux bien ancrés dans l'espèce comme chez l'individu, dont David Eagleman, après de nombreux autres, à dressé la liste. Il faut aussi situer la conscience au regard de l'introspection, à laquelle Eagleman attribue non sans raisons un certain pouvoir d'éclairage. Qui est le moi conscient qui s'observe? Cette observation prétendue n'est-elle pas une construction ou reconstruction permanente? Quel crédit le moi conscient peut-il attribuer aux recommandations de comportement que lui suggère sa conscience?

Par ailleurs, on doit évoquer sur ce thème la grande question de la réalité telle qu'observée, soit par le cerveau inconscient soit par le cerveau conscient. Nous avons ici plusieurs fois évoqué le « non-réalisme » épistémologique, à la base de la physique quantique mais qui s'étend aujourd'hui à l'ensemble des disciplines scientifiques macroscopiques. Il n'existe pas de « réel en soi ». Seules existent, et seulement dans le cerveau puis dans la société des observateurs s'accordant sur des perceptions communes, les représentations que les cerveaux, inconscients puis conscients, ont acquis de façon expérimentale en confrontant leurs hypothèses sur le monde extérieur avec les observations auxquelles ils procèdent. Si cependant ces représentations entraînent des actions motrices de la part des individus, elles modifient indirectement le monde extérieur, tel du moins qu'il nous apparaît.

Nous pensons qu'il faudrait aller plus loin dans cette réflexion. Nous avons suggéré que les humains, associés symbiotiquement à des outils – d'ailleurs fort différents d'une époque ou d'un lieu à l'autre - constituent des ensembles mixtes que nous avons nommé des systèmes anthropotechniques. Or ces systèmes, combinant les ressources du biologique, de l'anthropologique et des technologies, génèrent des faits de conscience qui dépasse le cadre étroit du cerveau de l'humain y participant. Ainsi les humains « addicts » de l'automobile ou des ordinateurs branchés sur Internet se dotent de représentations conscientes du monde et d'eux-mêmes fortement influencées par l'usage des technologies correspondantes.

Le psychologue ou le neuroscientifique ne comprendra pas la structuration des cerveaux de tels individus passionnés s'il n'étudie pas, au niveau même des cortex sensoriels et moteurs, les déformations apportées par la symbiose avec les outils correspondants. Au fur et à mesure que ces technologies se complexifient et évoluent, les cerveaux des humains avec lesquelles ils sont associés génèrent des représentations du monde qui évoluent à des vitesse équivalentes. Comme ces représentations pilotent elles-mêmes des comportements, c'est finalement le monde toute entier qui évolue en conséquence– ceci non sans conflits car ces évolutions n'ont rien de linéaire ou d'ordonné. Bien évidemment, les représentations prenant la forme d'hypothèses scientifiques vérifiées expérimentalement jouent un rôle prédominant, tout au moins en ce qui concerne l'évolution des sociétés scientifiques, par rapport à celles relevant d'approches intuitives plus individuelles.

Ajoutons que les technologies de l'intelligence artificielle et de la robotique auront de plus en plus à cet égard un effet d'entrainement. Or David Eagleman les ignore manifestement. Il évoque une intelligence artificielle primitive, depuis longtemps dépassée par la recherche. Il ne semble pas savoir que partout dans le monde se développent des programmes non d'intelligence artificielle mais de conscience artificielle, reprenant en les enrichissant sans cesse les capacités de la conscience générée par les cerveaux humains. Bientôt de véritables cerveaux artificiels verront le jour. Ces recherches sont pour le moment développées par des militaires ou par des firmes visant essentiellement à dominer les consciences et les comportements des individus humains en vue d'en tirer un pouvoir sur le monde. Alain Cardon, bien connu sur notre site, a proposé depuis longtemps des procédures permettant de réaliser sur le mode de l'open source des solutions (anthropotechniques) de conscience artificielle utilisables par tous. Malheureusement, il n'est guère entendu. Il est dommage que David Eagleman n'ait pas évoqué de telles perspectives.

Conclusion

Le monde actuel est constitué d'une écrasante majorité d'humains dont les cerveaux sont encore formatés tels qu'ils l'étaient dans les siècles passés, par des préjugés empiriques et par des croyances religieuses qui ne sont guère capables d'ouverture. Il comportent à l'opposé d'étroites minorités de scientifiques et de technologues, associés à des outils aux capacités transformationnelles considérables. Les deux grandes catégories de cerveaux en résultant sont en compétition darwinienne. Nul ne peut dire encore laquelle l'emportera.

Nous aurions aimé que David Eagleman, puisqu'il se veut matérialiste, aborde ouvertement la question de ce conflit géopolitique, en le formulant dans les termes que nous venons de résumer. Si les systèmes anthropotechniques faisant appel aux technologies du grand futur, énergétiques, biosynthétiques, robotiques, spatiales, réussissaient à s'imposer, la planète serait changée, et peut-être même le système solaire tout entier. Si ce n'était pas le cas, la Terre et ses habitants retomberaient dans les âges sombres, non pas de l'état de nature d'avant l'âge de pierre, mais des guerres d'extermination réciproques nées avec la tribalisation.


Pour en savoir plus

* Wikipedia http://en.wikipedia.org/wiki/David_Eagleman
* Laboratoire http://www.eaglemanlab.net/
* Article du New Yorker
"The possibilian"

Repost 0
25 février 2013 1 25 /02 /février /2013 21:49


Jean-Paul Baquiast - 23/02/2013

Nous avons commencé à publier divers articles sur ce thème. Avant de les réunir d'une façon méthodique, nous comptons continuer à proposer des approches n'épuisant pas la question mais susceptibles de contribuer à l'éclairer.

La science, accompagnée de sa petite sœur (ou fille) la technologie, offre des champs de réflexions très divers. Ceux qui, notamment au plan philosophique, intéressent semble-t-il le plus le grand public, concernent la physique, au sens le plus fondamental, rejoignant de fait la cosmologie: de quoi l'univers est-il fait ? Certains formulent la question autrement : quel est le tissu profond de l'univers ? Autour de quelles lois fondamentales s'est construit l'univers.

Depuis maintenant un siècle ou presque, la physique a proposé deux voies d'approche, la relativité générale (RG) due à Einstein et la mécanique quantique (MQ), due à une poignée d'esprits remarquables, les plus souvent cités étant Niels Bohr et Werner Heisenberg. Chacune dans son domaine, ces deux approches ont conduit à des découvertes théoriques et des applications qui n'ont jamais dans leur domaine été remises en cause jusqu'à aujourd'hui.

Mais, comme chacun le sait, elles ne sont pas compatibles. Elles proposent de l'univers des représentations non cohérentes. La RG par exemple définit un espace-temps réglé par la gravitation. La MQ ignore la gravitation et ne prend pas en compte le temps. Or tous les efforts pour concilier ces deux approches, sous le terme général de gravitation quantique, n'a pas encore clairement abouti. Cette contradiction entre RG et MQ empêche tout approfondissement de la recherche fondamentale, sauf à supposer que l'exigence d'un univers cohérent soit une revendication anthropique, née de notre pratique quotidienne et n'ayant pas de fondement dans la réalité.

Une autre critique est plus subtile, mal fondée diront les scientifiques. RG et MQ proposent des représentations du monde lourdement mathématiques. Elles ne peuvent être discutées dans la pratique que par le biais d'ordinateurs numériques de plus en plus puissants. Ces représentations ne peuvent donc, sauf à caricaturer l'esprit des hypothèses et théories, se traduire par des images (disons analogiques) clairement compréhensibles par les humains, scientifiques compris. Ceux-ci s'en accommodent, voire en tirent un certain sentiment de supériorité. La science n'est pas faite pour tout le monde, disent-ils. Il faut la mériter, et donc apprendre à maîtriser les mathématiques et le calcul informatique – d'autant plus, selon certains chercheurs, que l'organisation profonde de l'univers pourrait être mathématique et computationnelle.

Or les cerveaux des homo sapiens ordinaires ont été formés par l'évolution à traiter, non des équations mais des images. Ce traitement prend deux aspects: la reconnaissance de formes (de patterns, selon un terme plus général) et la création de formes, quand des formes pré-existantes ne sont pas identifiables dans l'environnement. Ainsi, le cerveau d'un animal peut juger, de par une longue expérience, génétique et individuelle, du caractère franchissable d'une rivière. Mais lorsqu'ils se trouvent en présence d'une rivière jugée infranchissable par leur cerveau, certains animaux particulièrement inventifs, parmi lesquels des humains, imaginent un pont permettant de la traverser. Il leur reste ensuite à fabriquer ce pont avec les moyens à leur disposition. Ils n'ont pas attendu les mathématiques de l'ingénierie des ponts, venues bien plus tard, pour imaginer puis réaliser des ponts.

Si l'on admettait donc qu'il faudrait, pour critiquer et modifier en profondeur les modèles scientifiques, renoncer à toute imagination (autre que mathématique), on exclurait de la capacité à comprendre le monde et surtout à faire évoluer les modèles que la science en donne quelques 999/1000 des humains. La plupart des scientifiques sincères font d'ailleurs valoir que nombre de leurs idées innovantes leur sont venues non de la computation informatiques de modèles mathématiques, mais d'idées ou intuitions bien plus générales, souvent à base d'images venues d'ailleurs, auxquelles ils ont donné une forme plus méthodique.

On objectera que pour dépasser les non-compatibilités entre RG et MQ, il faudrait que des humains, scientifiques ou non, puissent imaginer (sous forme d'images et non d'algorithmes mathématiques) un ou plusieurs types d'univers résolvant ces contradictions et ouvrant des perspectives sur un univers nécessairement plus riche et fécond que celui bien ou mal décrit par les théories dominantes. Or peuvent-ils le faire ? Plus exactement, leurs cerveaux peuvent-ils le faire?

Bien évidemment ces cerveaux ont toujours été capables de générer des images du monde à caractère non scientifique, mais religieux, mythologique, poétique. On ne peut pas refuser toute valeur à ces créations, même dans le domaine scientifique. Nous avons vu que beaucoup d'entre elles étaient à la source de grandes inventions. Mais cela ne suffirait pas à en faire des hypothèses et moins encore des théories scientifiques. Celles-ci exigent des caractères bien reconnus, généralité, falsifiabilité (possibilité d'être contredites par l'expérience), indépendance des supports, etc. Il faudrait donc que, pour imaginer y compris sous forme d'images virtuelles, un univers offrant une synthèse entre RG et MQ, les sociétés modernes soient capables de "ratisser large", c'est-à-dire de faire appel à de nombreux humains exclus du champ de la créativité scientifique par les ténors monopolisant institutionnellement ce domaine de l'esprit.

Carver Mead

Carver MeadSerait-ce possible. Ce serait en tous cas indispensable. C'est ce que vient d'affirmer avec force un inventeur de 78 ans (comme quoi l'âge ne fait rien à l'affaire), dans une "sortie" ayant fait un certain bruit au sein des geeks ou "fous de technologies" qui font la richesse de la civilisation américaine(1).

Carver Mead(2) est professeur émérite à Caltech, pionnier des composants électroniques et de la micro-électronique. Il a lancé avec succès plus de 20 entreprises dans ces domaines. Ceci ne l'empêche pas de ronger son frein, face aux blocages affectant aujourd'hui selon lui la physique fondamentale, notamment du fait de l'impossibilité à se dépasser qui paralyse les théoriciens de la RG et de la MQ. Il impute ce blocage à quelques poignées de "mandarins" comme l'on dirait en France, qui refusent à tous autres qu'eux la possibilité de présenter des hypothèses nouvelles. Néanmoins, comme ils sont en fin de carrière et assis sur les honneurs, ils ne font en ce qui les concerne aucun effort personnel de renouvellement.

Devant une assistance apparemment séduite de 3.000 jeunes ingénieurs, il a présenté récemment ses solutions à l' International Solid-State Circuits Conference (ISSCC) de San Francisco. Pour lui, il faut se décider à expliquer de façon intuitive comment chaque élément de la matière composant l'univers est en relation avec tous les autres et les affecte. Aujourd'hui les tentatives pour explorer ces interrelations sont enfouies sous "d'énormes piles de mathématiques obscures" dont rien d'utile ne peut être extrait. O combien nous approuvons ce propos, n'étant pas particulièrement à l'aise, comme beaucoup de contemporains, parmi les équations

C'est à vous, a-t-il affirmé, qu'il appartient de sortir de ces impasses. Il faut relancer la révolution scientifique inauguré dans les premières décennies du 20e siècle et bloquée depuis, moins par des difficultés propres que par les égos de ceux qui aujourd'hui se prétendent en être les héritiers. L'approche que Mead préconise semble reposer sur un retour au réalisme, notamment en matière de MQ. Non seulement il faux explorer les interrelations de la matière et des diverses forces, mais mieux comprendre la nature de l'électron. Il faut traiter les fonctions d'onde des électrons comme de réelles fonctions d'onde. Ceci imposera de reformuler les lois de l'électromagnétisme, en redéfinissant à la base la nature quantique de l'électron.

Concernant l'étude des interrelations dans la nature, Mead condamne vigoureusement l'idée fausse que l'on ne peut comprendre un phénomène qu'en l'isolant des autres, afin d'expérimenter sur lui en dehors de toutes autres influences. Cette méthode a été popularisée par Galilée. Elle a certes permis des avancées considérables, mais aujourd'hui, elle doit céder la place des approches plus globales, holistes. C'est ce que Ernst Mach avait compris pour sa part et convaincu Einstein de mettre en application. Il n'y a pas de mouvement dans l'absolu, lui aurait dit Mach. Il n'y a de mouvement que relativement à d'autres objets en mouvement. La théorie de la Relativité, relativité restreinte et relativité générale, en aurait résulté. Mach avait d'ailleurs élaboré le Principe dit de Mach, selon lequel l'inertie de chaque élément de matière est due à ses interactions avec les autres éléments de matière de l'univers.

Selon Mead, nous nous sommes écartés de ces principes. Nous traitons aujourd'hui de l'inertie d'un objet, de son énergie de masse, de la vitesse de la lumière et de tous autres concepts comme s'il s'agissait de constantes fondamentales sur l'origine desquelles nous ne nous posons pas de questions. Si nous voulons sortir d'un blocage de plus d'un siècle, il faudra se demander d'où viennent ces constantes, découvrir leurs fondements dans leurs interactions et plus généralement découvrir l'interaction de toutes les formes de matière au sein de l'univers. Cette démarche engagée, nous pourrons considérer l'univers d'une façon beaucoup plus intuitive et vaste.

Carver Mead, pour terminer, a indiqué qu'il comptait consacrer à cette nouvelle tâche toutes les années qui lui restaient à vivre. Nous lui souhaitons de vivre longtemps.

Le non-réalisme constructiviste

Oui mais dans quelles directions pourrait-on lancer ce vaste programme, de telle sorte qu'émergent des hypothèses vraiment révolutionnaires? En fait, ceux qui connaissent l'histoire des sciences contemporaines savent que l'imagination n'a jamais manqué à certains scientifiques, rejoignant en cela les auteurs de science-fiction. La première piste consiste à partir des bases de la RG et de la MQ, en recherchant les solutions théoriques qui pourraient les rendre compatibles. Il s'agirait par exemple d'imaginer ce qui fut le rêve sans solutions d'Einstein, Bohr et de Broglie, c'est-à-dire l'existence de variables cachées non locales. Nous avons montré dans des articles précédents que c'est la voie choisie, dans des directions d'ailleurs très différentes, par Dirk Pons et Ken Wharton, sans parler de nombreux autres intervenants s'exprimant dans les blogs de discussion consacrés à la physique théorique. Rien ne permet au reste de prédire à ce jour que l'une ou l'autre de ces tentatives n'aboutira pas.

La théorie des cordes pourrait être présentée comme une forme, sinon achevée mais en tous cas prolifique, d'une telle créativité théorique. Les dimensions et univers multiples y abondent. Chacun peut y faire un choix. Mais la théorie des cordes ne répond pas à la contrainte posée par Carver Mead: être compréhensible sans mathématiques par l'homo sapiens ordinaire.

D'autres voies pourraient être explorées en rejetant des convictions profondément implantées par l'évolution dans les cerveaux des sapiens, notamment celles relatives au temps et à l'espace. Le temps pourrait ne pas exister, l'espace pourrait être tout autre. Mais que mettre à la place, soit dans les apparences, soit au coeur même des phénomènes? Là encore existent aujourd'hui de nombreuses hypothèses scientifiques. Elles n'ont jamais encore cependant réussi à s'imposer. Elles doivent satisfaire aux contraintes de tous les jours concernant notre existence sur Terre. Elles doivent aussi apporter des réponses crédibles aux grands phénomènes cosmologiques identifiés par les instruments d'aujourd'hui; le rayonnement d'arrière-fond cosmologique, l'expansion apparente des astres et ses causes possibles, les trous noirs, la matière invisible.

Une autre voie de découverte consisterait à remettre en cause les instruments scientifiques et en arrière-plan, l'organisation des cerveaux ou des sociétés qui conçoivent et utilisent ces instruments. Elle reposerait sur un postulat simple: on ne découvre, à peu de choses près, que ce que l'on savait déjà. Pour vraiment bouleverser le regard, il faudrait bouleverser non seulement les concepts et les instruments mais les hiérarchies sociétales qui s'en sont servi pour construire leur pouvoir.

On retrouverait ainsi les propos de Mead. Il s'agit là encore d'une vieille ambition, inscrite dans l'histoire. Mais pour ne pas en revenir aux prophètes et à leurs mythologies, il faudrait rester en conformité avec les bases méthodologiques de la science expérimentale. Une voie souvent évoquée consisterait à patienter jusqu'à la mort des prix Nobel et académiciens des sciences actuels, en attendant que de jeunes générations, convenablement féminisées, les remplacent. Mais la voie serait longue et incertaine. Rien ne permet d'affirmer, sauf dans le cadre d'un jeunisme ou d'un féminisme de principe, que les jeunes générations pourraient – rapidement – voir plus clair que leurs aînées.

Le non réalisme constructiviste pourrait en ce qui le concerne permettre d'avancer plus rapidement. De quoi s'agit-il? Par non-réalisme, entendons la position philosophique selon laquelle il n'existe pas une réalité en soi qui s'imposerait inévitablement aux humains. Ceci au sujet de l'univers comme de tous autres objets étudiés par les sciences. Les non-réalistes dénoncent dans cette prétendue réalité en soi la façon dont les pouvoirs actuellement dominants cherchent à pérenniser les idées qui confortent leur pouvoir. Les non-réalistes ne veulent pas cependant verser dans le solipsisme, selon lequel il n'est de réalité que celle conçue par les esprits des sujets. Ils font donc confiance aux processus constructifs et de mise à l'épreuve auxquels depuis les origines de la vie, les organismes biologiques ont eut recours pour élaborer un milieu "artificiel" conforme à leurs exigences de reproduction et d'expansion.

Aujourd'hui, dans le cadre de ce que nous avons pour notre part nommé des systèmes anthropotechniques, se construisent plus ou moins spontanément, sur le mode darwinien du hasard et de la nécessité, des entités qui pourraient être profondément révolutionnaires au regard des humains, des technologies et des connaissances d'aujourd'hui – révolutionnaires dans un sens dont par définition nous ne pourrions rien dire aujourd'hui. Certains observateurs vont plus loin et suggèrent que ces nouvelles entités existent déjà sous forme cryptique, qu'elles sont déjà discrètement à l'œuvre dans notre jardin, le transformant d'une façon non clairement explicitée mais efficace.

Il est légitime d'imaginer dans cette hypothèse que ces entités, de plus en plus empreintes d'artificialisation, au plan biologique, cérébral et instrumental, pourraient brutalement inventer des façons de concevoir l'univers profond qui lèveraient une partie des indéterminations et des contradictions de la science actuelle au sujet de ce même univers. Ce ne serait évidemment pas alors l'univers qui aurait changé, univers dont nous ne pourrons jamais rien dire de définitif, mais notre façon de le voir, de nous y insérer, notre façon d'y exister, au sens fort de ce terme. Finalement, il s'agirait, que l'on nous pardonne ce jargon, d'un non réalisme constructiviste s'appliquant dans les trois grands domaines de la cosmologie, de la biologie et de la technologie. Ce serait aussi un non-réalisme relativiste, autrement dit renvoyant aux entités qui l'aurait construit et à elles-seules, non à une autorité extérieure prétendant s'ériger en juge suprême.

Notes
(1) Voir article http://www.theregister.co.uk/2013/02/20/carver_mead_on_the_future_of_science/
(2) Carver Mead http://en.wikipedia.org/wiki/Carver_Mead

Repost 0
22 février 2013 5 22 /02 /février /2013 11:55

Appelons modèles théoriques de l'univers ceux qui proposent des descriptions du cosmos à son échelle la plus large qui A. ne soient pas brutalement contradictoires avec les connaissances scientifiques bien établies et B. sont encore trop abstraites pour pouvoir être vérifiées expérimentalement, tout au moins dans l'état des instruments d'observations actuels.


Jean-Paul Baquiast 21/02/2013


Prenons un exemple simple, consistant à faire l'hypothèse que l'univers est infini, c'est-à-dire sans limites dans le temps et dans l'espace. Les observations dont on dispose ne permettrait pas aujourd'hui de confirmer cette hypothèse. Elles montrent au contraire, par exemple grâce au satellite Planck observant ce que l'on nomme le Fonds diffus cosmologique (Cosmic Background Radiation Anisotropy ) qu'il existe une limite dans le temps et donc dans l'espace au delà de laquelle les observations sont impossibles. Les cosmologistes en déduisent qu'en l'absence de possibilités instrumentales, il n'est pas possible aujourd'hui de faire d'hypothèses vérifiables relatives au caractère fini ou infini de l'univers. Ceci n'interdit pas la recherche de modèles théoriques postulant le caractère infini de l'univers. Ces modèles s'opposeront dans ce cas à d'autres modèles théoriques éventuels, eux-aussi invérifiables, postulant l'existence de limites à l'univers, liées à telle ou telle propriété qui lui seraient attribuée.

Pour éviter de verser dans la littérature ou dans la mythologie, les modèles théoriques de l'univers doivent reposer sur de solides bases mathématiques. Cette exigence les réserve aux physiciens mathématiciens et en exclu le grand public. C'est le cas de la théorie des cordes, qui depuis quelques décennies propose des modèles de l'univers capables d'unifier deux domaines de la physique complètement vérifiés à ce jour mais incompatibles, la mécanique quantique et la relativité générale. Il s'agit de la gravitation quantique. Or si certains aspects de la théorie des cordes paraissent aujourd'hui susceptibles de vérification expérimentale, ce n'est pas le cas de l'ensemble de ses propositions. Elle postule par exemple l'existence d'un nombre indéterminé de dimensions d'espace ou même d'univers (le multivers).

Il s'en suit que de nombreux cosmologistes, notamment ceux qui travaillent avec l'aide des grands instruments d'observation moderne, proposent de renoncer entièrement non seulement à la théorie des cordes mais à la cosmologie théorique dans son ensemble. On serait tenté de les suivre, ou à tout le moins à se méfier de toutes spéculations par trop éloignées de ce qu'on appelle le réel observable. Mais d'autres chercheurs, dont ne saurait suspecter le sérieux, affirment au contraire que la physique, comme d'ailleurs les sciences en général, ne saurait se passer de modèles théorico-mathématiques, aussi exotiques que ceux-ci puissent paraître. C'est le cas de Léonard Suskind. Dans un interview récent publié par le NewScientist, il rappelle que personne n'est en droit d'interdire à un scientifique de faire des hypothèses théoriques, car il n'est pas possible d'affirmer que celles-ci ne seront pas un jour mises en défaut par d'autres hypothèses, voire testables expérimentalement 1).


La conjecture Cordus

Dans le cadre de cet article consacré au thème des modèles théoriques de l'univers, nous ne voudrions pas discuter de la pertinence de la théorie des cordes – ce que bien d'autres ont fait bien mieux que nous – mais présenter une théorie, ou plus exactement une hypothèse théorique ou conjecture, qui dans une certaine mesure s'en rapproche. Il s'agit de la conjecture Cordus, proposée par un physicien néo-zélandais, Dirk Pons 2). Cette conjecture, comme le montre les échanges qui lui sont consacrés, repris dans la rubrique « sources » in fine, est loin de faire l'unanimité. Elle est d'artilleurs très peu connue. Son auteur affirme qu'elle pourra prochainement faire des prédictions qui seront falsifiables, autrement dit soumises à l'épreuve de l'expérience. Mais ce n'est pas encore le cas actuellement. Pourquoi donc en ce cas s'y intéresser ?

Pour deux raisons. La première est parce qu'elle propose des entités du monde sub-atomique, généralement désignées dans les manuels par le terme de « particule », un modèle qui résoudrait le grand mystère de la mécanique quantique (MQ), le principe d'indétermination selon laquelle il n'est pas possible de connaître à la fois la position et la vitesse d'une particule massive donnée. Mais la seconde raison justifiant de s'intéresser à Cordus est d'ordre méthodologique. En approfondissement les explications données par Dirk Pons, son concepteur, on voit clairement comment des théoriciens imaginatifs tels que lui élaborent de novo des hypothèses ambitionnant de résoudre, parfois dans le plus grand détail, les questions encore sans réponses.

Sur le plan du fond, la conjecture Cordus s'inscrit dans les modèles « réalistes » de l'univers. Elle affirme qu'existent des variables cachées non locales (Non-local hidden-variable, NLHV) permettant, une fois mises en évidence, de déterminer non seulement l'état de telle particule en termes de position et de vitesse, mais tous les autres problèmes incompatibles avec le réalisme de la physique ordinaire observés par la physique quantique. On mentionne généralement les actions à distance hors de l'espace temps einsténien, telles qu'elles apparaissent à l'occasion de l'intrication, ou la prétendue intervention de la conscience de l'observateur dans la résolution de la fonction d'onde caractérisant un observable quantique. C'était on le sait la question de fond évoquée par le paradoxe EPR (Einstein-Podolsky-Rosen) auquel Einstein avait consacré ses dernières recherches théoriques. Aujourd'hui encore un certain nombre de physiciens, s'inspirant de l'interprétation dite de Bohm- Broglie, pensent pouvoir montrer, ou tout au moins pouvoir rechercher, l'existence de telles variables cachées. 3)

Le public s'intéressera surtout au fait que le modèle d'univers proposé par Cordus résoudrait la question du temps, ou plutôt de son apparente irréversibilité. Cordus veut montrer qu'à certaines échelles, le temps n'existe pas. Ceci n'est pas nouveau, puisque les interactions dynamiques sont invariantes en fonction du temps, aussi bien pour la mécanique newtonienne que pour la MQ. Cordus veut aller plus loin, en montrant que le temps est une création anthropomorphique ou, plus exactement liée aux structures complexes de la matière, telles qu'elles sont apparues au cours de l'évolution de l'univers, et notamment sur Terre avec la matière vivante. Il s'agit là aussi d'un autre des grands « mystères » résultant de la MQ, pour laquelle les causalités liées au temps sont des constructions apparentes ne découlant pas de la réalité profonde de l'univers, si l'on peut parler de réalité en ce domaine.


Une particule spécifique

Pour justifier ses affirmations, Cordus propose une description réaliste de la particule. Superficiellement, cette description ressemble un peu à celles proposées par la théorie des cordes. Mais ses concepteurs l'ont voulu beaucoup plus simple, tout au moins pour qui cherche à l'exprimer de façon imagée, sans recourir nécessairement à des équations. Pour la conjecture, toutes les particules aujourd'hui identifiées, photons, électrons, protons ne sont pas ponctuelles (des points à zéro dimension). Elles ont une structure interne spécifique, d'où le nom que leur a donné Dirk Pons : « particules cordus », ceci pour les différencier des particules de la physique ordinaire. La conjecture définit la structure interne et externe de la particule cordus lui permettant de se comporter en variable cachée non locale (NLHV) lors des phénomènes d'intrication et de superposition onde-particule observés par la MQ. Elle montre ensuite comment ces particules peuvent s'agréger pour former les atomes, molécules et autres organismes de la physique macroscopique.

Selon Dirk Pons, la validité de cette l'hypothèse de structure a pu être testée avec succès (toujours théoriquement évidemment), puis précisée face aux problèmes posés par un grand nombre de phénomènes physiques. Elle a toujours conservé sa cohérence logique et sa capacité de répondre à ces problèmes. Nous n'avons ni le temps ni la compétence pour entrer dans la discussion mathématique et logique des arguments proposés. D'autres scientifiques l'ont apparemment déjà fait comme le montre certains arguments présents sur le web. On peut penser que, si la conjecture repose sur des vices évidents (des biais, sur la terminologie anglaise) elle sera vite abandonnée. Dans le cas contraire, elle fera de plus en plus parler d'elle.

Nous n'entrerons pas ici dans la description des structures interne et externe de la particule cordus, trop complexes pour figurer dans cet article. Disons seulement qu'au plan interne chaque particule cordus disposerait de deux terminaisons réactives séparée par une très petite distance finie, chacune de ces terminaisons se comportant comme une particule dans ses interactions avec le milieu extérieur. Elles sont reliées par une « fibrille » Celle-ci serait une structure dynamique persistante mais qui n'interagirerait pas avec la matière. Elle assurerait instantanément la connectivité et la synchronicité entre les deux extrémités, celles ci étant « énergisées » chacune à leur tour à des fréquences données. Au plan externe, les extrémités réactives émettraient une ou plusieurs lignes de champs au sein de l'espace, dans les domaines de l'électrostatique, du magnétisme et de la gravitation.

Ces caractères devraient permettre d'expliquer comment, la particule n'étant ni un point ponctuel ni une onde, elle peut selon les conditions de l'expérimentation, notamment dans l'expérience des fentes de Young, apparaitre de façon duale au plan macroscopique. Par ailleurs n'étant pas enfermée dans l'espace-temps einsténien, elle peut interagir avec elle-même, ou avec d'autres particules associées, sans considérations de temps et de distance, dans le cadre des expériences sur l'intrication.

N'en disons pas plus ici, mais bornons nous à citer un propos de Dick Pons, que l'on retrouvera dans les réactions aux textes mentionnés dans la rubrique Sources : « Si l'explication fournie par Cordus était correct, le photon ne serait ni une particule ni une onde, mais plutôt une structure spécifique dotée de champs discrets. Nous pouvons ainsi expliquer pourquoi son comportement dépend de la façon dont il est observé, ce qui est également fascinant. Quand elle est regardée à partir de la perspective Cordus, son comportement est parfaitement naturel. Son étrangeté apparente ne tient pas à une étrangeté de la nature, mais au fait que la MQ n'offre pas une bonne description de la réalité. Elle ne dispose pas des concepts nécessaires pour ce faire. Nous pensons pour notre part que nous disposons maintenant des mots et des concepts permettant d'exprimer ce qu'est réellement le photon. Au moins au niveau d'une réalité se situant au dessous du monde décrit par la MQ ».

Sans être physicien, on voit immédiatement le point faible du raisonnement qui fonde la conjecture Cordus. La mariée est trop belle, si l'on peut dire. Dirk Pons et son équipe ont dessiné une particule ad hoc, susceptible de répondre au mieux aux paradoxes actuels de la physique. Il n'y a pas lieu ensuite de s'étonner qu'elle y réponde. L'ensemble du processus peut certes s'abriter derrière les complexités d'un formalisme mathématique au moins aussi redoutable (semble-il) que celui de la MQ, désarmant à l'avance beaucoup de critiques. Mais les sceptiques feront valoir que tant que ceci restera théorique, sans preuves expérimentales probantes, ils resteront sceptiques. Ceci nous permet de retrouver la question posée dans ce petit article : quel crédit attribuer aux modèles d'univers purement théoriques ? La réponse proposée par Leonard Suskind dans l'interview cité ci-dessus peut-elle trouver une application en ce cas ?


Conclusion

Il est difficile de prévoir ce que deviendra la conjecture Cordus, parmi les très nombreuses autres propositions formulées par des chercheurs imaginatifs, dans les blogs spécialisés consacrés à la physique théorique. Ce qu'il nous paraissait intéressant à montrer dans cet article était la façon dont un physicien indiscutablement doué, tant en physique théorique qu'en physique expérimentale, procède quand il cherche à cherche à dépasser les limites des théories en vigueur. Il invente véritablement un être théorique que ni lui ni personne n'avait eu jusqu'à présent la possibilité, d'observer. Il lui donne les caractères ad hoc permettant à cette entité de répondre, sur le papier, à des questions non encore résolues, voire non encore posées. Il lui donne ensuite un nom de baptême et imagine ce que pourrait être la vie ultérieure de cet enfant dans le monde complexe des sciences physiques.

Qu'espère-t-il ce faisant ? Il espère un hasard favorable, tel que tous ceux ayant toujours permis l'évolution des idées scientifiques, qui sont oeuvre collective. Un jour quelqu'un d'autre que lui observera ou croira observer sa créature, en constatant qu'elle répond aux conditions spécifiées. Alors ce serait tout un pan du "réel" qui sortirait de l'ombre et imposerait sa présence aux scientifiques et au grand public.4) Un prix Nobel pourrait en résulter au profit de l'inventeur.

Ceci peut paraître un rêve illusoire. Mais n'est-pas de cette façon « bizarre » (weird) que se sont imposées les grandes découvertes, comme si la nature dictait aux cerveaux de certains humains, produits de cette même nature, de nouvelles idées permettant de mieux la comprendre, de mieux la construire ?


Notes.
1) « You cannot stop thinking about something because somebody has a philosophical prejudice about the way science should be done. What constitutes good science will ultimately be decided by the scientists doing the work, and not by philosophers or kibitzers - which is Yiddish for people who stand around yakking when they don't really have anything to say.
The multiverse idea could be falsified if someone came up with a solid mathematical argument for the value of dark energy that does not rely on the existence of a multiverse.
.Leonard Suskind »

Voir interview http://www.newscientist.com/article/mg21729040.300-into-the-impossible-with-a-father-of-string-theory.html

2) Dirk Pons Références http://www.mech.canterbury.ac.nz/people/Pons.shtml

3) Cf Wikipedia : En mécanique quantique, l'interprétation de Bohm a été formulée en 1952 par le physicien David Bohm. Il s'agit d'un développement de la Théorie de l'onde pilote imaginée par Louis de Broglie en 1927. Elle est aussi connue sous les noms d'interprétation ontologique et d'interprétation causale. La théorie de Bohm est souvent considérée comme la théorie quantique à variables cachées de référence, même si cette description est rejetée par l'ensemble des physiciens bohmiens, dont John S. Bell et d'autres physiciens et philosophes. Elle entend donner une vision réaliste et déterministe de la mécanique quantique, en opposition à l'interprétation de Copenhague.

4) Réel "réel", dans la perspective du réalisme des essences, réel "construit", dans la perspective de la conceptualisation relativisée prosée par Mioara Mugur Schachter et retenue par nous sur ce site. .


Sources pour Cordus
* Is time a dimension ?http://cordus.wordpress.com/
* http://physicsessays.org/doi/abs/10.4006/0836-1398-25.1.132
* http://vixra.org/abs/1106.0027
* http://www.vixra.org/

* Par ailleurs, Cordus est discuté dans les interventions de lecteurs suscités par l'article Quantum shadows ci-après
http://www.newscientist.com/article/mg21728971.600-quantum-shadows-the-mystery-of-matter-deepens.html

 


Repost 0
19 février 2013 2 19 /02 /février /2013 16:15
Nous sommes bien placés ici pour savoir que l'Amérique ne laissera à nulle autre puissance la maîtrise des études sur le cerveau. Il suffisait pour s'en persuader d'observer depuis au moins une décennie l'importance des effectifs de neuroscientifiques travaillant, en toute confidentialité évidemment, au service de l'Agence de recherche du Pentagone, la Darpa et derrière celle-ci, des industries militaires.

A ces scientifiques il faut ajouter tous ceux, aux Etats-Unis et en Europe, qui étudient ces questions au titre de la recherche universitaire – recherche qui ne peut et ne veut rien cacher, de par son caractère ouvert, aux organisations exploitant ses résultats à des fins industrielles, commerciales ou stratégiques.

Aussi bien attendions-nous une réplique officielle de l'Amérique à l'annonce faite récemment par l'Union européenne du projet Human Brain 1). Cette réplique n'a pas tardé. Le 17 février, le New York Times détaille l'annonce par Barack Obama d'un grand programme visant à construire un modèle complet du cerveau humain. Il s'agit de faire plus et mieux que les chercheurs européens. Plus en ce sens que le projet américain disposera d'un budget au moins 3 fois plus élevé que le budget européen (si celui-ci est un jour versé compte tenu des restrictions). Mieux en ce sens qu'il rassemble un panel de grands scientifiques à côté desquels, sauf exceptions, le projet européen paraît bien modeste.

On notera avec intérêt, à la fin de l'article, que ce dernier est traité avec la plus grande condescendance. Il est présenté comme un projet suisse et fait allusion aux ambitions annoncé jusqu'à ces derniers temps par Henry Markram, le responsable officiel du projet européen: simuler sur ordinateur une petite partie du cortex d'un rat. Pour le NYT et la communauté scientifique américaine, cette ambition n'est évidemment pas à la hauteur de celles affichées par Obama.

Selon nos informations, les Européens, conscients de cette faiblesse, voudraient élargir la portée du projet européen, jusqu'à en faire une véritable académie des sciences du cerveau. On peut espérer que le défi lancé à l'Europe et au reste du monde par Barack Obama va renforcer ces intentions. Mais on peut craindre que les chercheurs européens, soumis aux pressions nationales et enfermés dans leurs spécialités, ne réussissent que difficilement à construire une machine de guerre (guerre scientifique et guerre économique) à la hauteur de celle officialisée par les Etats-Unis 3) On verra cependant ce qu'il en sera.

En attendant, les spécialistes de la géopolitique se demanderont comment les Chinois répondront pour leur part au défi. On dispose de peu d'informations sur leurs compétences actuelles concernant ces questions. Mais constatant comme ils sont passés maitres dans la cyberwar qui dorénavant fait rage entre eux et l'Amérique 4), on peut légitimement pas penser qu'ils sont déjà bien positionnés dans la brainwar.

Notes
1) voir Human Brain Project, un grand projet européen sur le cerveau humain http://www.admiroutes.asso.fr/larevue/2013/134/hbp.htm
2) voir Obama seeking to boost...
http://www.nytimes.com/2013/02/18/science/project-seeks-to-build-map-of-human-brain.html?_r=0
Toutes les phrases de cet article méritent d'être soigneusement pesées.
3) D'autant plus qu'IBM, curieusement confirmé comme cheville ouvrière du projet européen, ne sera pas assez suicidaire pour rester impartial dans la compétition qui s'annonce.
4) Voir Chinese Army Unit Is Seen as Tied to Hacking Against U.S. http://www.nytimes.com/2013/02/19/technology/chinas-army-is-seen-as-tied-to-hacking-against-us.html
On ne s'éloigne pas réellement du cerveau.

 

Repost 0
14 février 2013 4 14 /02 /février /2013 09:20


Jean-Paul Baquiast 13/02/2013


Joseph-Louis Lagrange (25 janvier 1736 – 10 avril 1813)

Ken Wharton, physicien quantique américain jusqu'ici peu connu, sauf dans les blogs spécialisés, vient de lancer ce qui pourrait être un véritable pavé dans la mare – ce qui pourrait aussi donner lieu à un flop vite oublié. Dans un essai disponible en ligne, que nous vous invitons à consulter, résumé par un court article dans le NewScientist, il invite à renoncer aux méthodes très généralement utilisées par les scientifiques pour étudier l'univers et prédire son évolution. Ces méthodes, selon lui, s'inspirent trop directement de la façon dont travaille aujourd'hui la science moderne. Celle-ci construit des modèles du monde concrétisées par des jeux d'équations, soumet ces équations à divers calculs informatiques et met à l'épreuve de l'expérience les nouveaux modèles ainsi obtenus. Ceux de ces derniers qui résistent à l'épreuve expérimentale servent à construire de nouvelles représentations du monde.

Cette méthode est à la base de la science expérimentale. Elle n'est donc pas critiquable en soi. L'abandonner ramènerait la science à l'ère métaphysique. Mais elle pourrait être dangereuse, si elle s'inspirait excessivement d'un modèle général de référence qui ne serait pas exact, ou plutôt qui ne serait pas suffisant. Pour Ken Wharton, ce modèle est le calculateur, universellement utilisé dans les sciences aujourd'hui, et en perfectionnements continuels. Si cet outil donne aux scientifiques comme aux ingénieurs un instrument irremplaçable, il ne faut pas aller jusqu'à considérer que l'univers lui-même fonctionnerait comme un ordinateur géant. L'idée est souvent présentée aujourd'hui par les cosmologistes. Pour ceux qui s'en inspirent, même si ce que l'on sait de l'univers ne permet évidemment pas d'identifier ici ou là des organes de calcul informatique à l'oeuvre, les systèmes naturels que l'on observe sont construits et évoluent conformément à des règles de type informatique. Ainsi en est-il par exemple d'une galaxie. C'est ce qui nous permet de modéliser sur ordinateur, avec les fonctions mathématiques appropriées, l'existence et l'évolution de tels êtres.

Or Ken Wharton nous met en garde. Aussi productive que soit la comparaison de l'univers avec un ordinateur, elle peut conduire la science à de graves impasses. Elle s'inspire de processus algorithmiques déterministes bien illustrés par le « modèle du monde » présenté par Newton. Même si depuis Newton, les modèles d'univers s'en inspirant ont été considérablement affinés, ils restent présents dans tous les calculs informatiques utilisées par les astronomes ou par les sciences de l'espace pour modéliser les trajectoires des astres et des engins interplanétaires. Il ne serait donc pas raisonnable de les rejeter. Mais depuis les premiers pas de la physique quantique dans les années trente du 20e siècle, le monde scientifique sait que d'autres descriptions de l'univers doivent y être ajoutées. Elles font elle aussi appel à des modèles mathématiques et à des simulations sur ordinateur, mais – sauf à dire que l'univers est un ordinateur quantique, ce qui ne veut pas dire grand chose à ce jour (voir Note 1 ci-dessous), elles obligent à renoncer aux postulats déterministes et réalistes de la physique et de la cosmologie macroscopiques.

La physique quantique est à la base de grands succès, y compris dans le domaine technologique. Elle n'a jamais à ce jour été mise en défaut. Cependant elle n'a pas encore pu présenter de modèles d'univers vérifiables expérimentalement, selon lesquels celui-ci n'évoluerait pas comme s'il était un calculateur géant, mais selon d'autres lois encore mal précisées aujourd'hui. Il en résulte que le monde de la science, en théorie comme expérimentalement, doit prendre acte de deux grandes méthodes permettant de représenter l'univers et son évolution, celle du modèle newtonien ou néo-newtonien tel que mentionné ci-dessus et celle découlant de la physique quantique, que l'on pourrait résumer par le concept d'indétermination proposé avec le succès que l'on sait par Heisenberg. Ces deux méthodes se sont révélées encore incompatibles à ce jour, malgré les efforts des théoriciens de la gravitation quantique.

Or pour Ken Wharton, il s'agit là d'une sorte de scandale, car il existe depuis bientôt 300 ans des modèles mathématiques permettant de représenter l'univers d'une façon aussi objective que possible, c'est-à-dire aussi proches des vérifications expérimentales que possible. Ces modèles permettraient d'évacuer les grandes incohérences du modèle d'univers darwinien, liées notamment à l'impossibilité pratique de calculer l'évolution de l'univers dans le temps. Elles évacueraient ainsi le concept de temps, lié à l'espace-temps newtonien repris par Einstein. De ce fait, une partie des contradictions avec la physique quantique disparaîtraient, dans la mesure où celle-ci ne s'inscrit pas dans le cadre de l'espace-temps newtonien-einstenien. Rappelons que les expériences sur l'intrication, par exemple, obligent à postuler la « réalité » d'un univers où des particules peuvent interagir sans référence au temps et à l'univers physique auxquels nous sommes habitués (ce à quoi Einstein n'a jamais cru, évoquant une bizarre action à distance – spooky action at a distance, et évoquant des variables cachées, jamais encore découvertes, permettant d'expliquer ce phénomène).

Quels sont les modèles auxquels fait référence Ken Wharton? Ce sont ceux proposés par Fermat (repris sous le nom de principe de Fermat) et étendus par les mathématiciens Lagrange et Maupertuis, sous le nom de principe de moindre action. Fermat avait proposé son principe pour modéliser la propagation d'un rayon lumineux dans des milieux variés, par exemple l'air et l'eau. Il n'est pas possible de calculer a priori la trajectoire quelconque d'un tel rayon, à partir d'une source donnée. On ne connait pas en effet les milieux traversés ni leurs indices de réfraction. Tout au plus peut-on le faire a posteriori, une fois que l'on s'est donné un point d'arrivée. On constate alors que le rayon a pris la trajectoire la plus directe, compte tenu des résistances rencontrées. Lagrange a étendu le principe de moindre action à la simulation de n'importe quel système mécanique, ce qui a permis aux ingénieurs d'optimiser considérablement la conception de ces systèmes.

Mais pourquoi ne pas avoir étendu à la modélisation de l'univers le principe de Fermat-Lagrange? Parce que, répond Ken Wharton, les cosmologistes, trop pénétrés de l'algorithmique déterministe néo-newtonienne, supposée être celle d'un univers conçu comme un ordinateur géant, ont refusé et refusent encore des modèles d'évolution refusant de postuler un point d'arrivée, des trajectoires et un temps définis a priori.

En bon scientifique cependant, Ken Wharton ne se borne pas à reprocher à la cosmologie et à la physique actuelle les impasses auxquelles les mène une méthodologie trop limitée. Il propose un nouveau modèle mathématique qui selon lui, pourrait être développé et produire des résultats vérifiables expérimentalement. Si ce travail aboutissait, on pourrait alors juger de l'intérêt de la nouvelle méthode. Serait-elle compatible avec les postulats et résultats de la physique quantique? Définirait-elle de nouvelles variables cachées qui conduirait à un nouveau regard réaliste sur le monde. Qu'en serait-il enfin de la perception du temps que nous avons tous? Faudrait-il la ranger au rayon des illusions anthropomorphiques, du type de celles que Ken Wharton dénonce a propos de la croyance selon laquelle l'univers fonctionnerait comme un ordinateur?

On ne peut que souhaiter voir Ken Wharton, dans les prochains mois, commencer à répondre en profondeur à ces questions. Pour notre part, nous essaierons de suivre attentivement ce qu'il en sera.

Notes

1. La science et les instruments

Au fur et à mesure que les humains développaient de nouvelles machines, ils ont eu tendance à postuler que l'évolution de l'univers, telle qu'ils la percevaient, obéissait aux mêmes règles que celles mises en oeuvre par ces machines. C'est ainsi que les machines mécaniques ont inspiré à Newton son « Système du monde » décrit dans le 3e tome de ses « Philosophiae naturalis principia » consacré aux mouvements des astres et à la loi de la gravitation universelle. Plus tard, l'entrée en service des machines à vapeur a conduit de nombreux scientifiques a postuler que le Premier et le Second principe de la thermodynamique  pouvaient valablement s'appliquer à l'histoire de l'univers, depuis le Big Bang caractérisé par une entropie minimum jusqu'à l'explosion de la vie, phénomène néguentropique s'inscrivant dans une entropie croissante. Nous avons précédemment signalé que pour certains physiciens d'ailleurs, les lois de la thermodynamique sont encore les plus appropriées pour caractériser les phénomènes cosmologiques au niveau macroscopique.

Inutile d'ajouter qu'avec l'invention des calculateurs, qu'ils soient analogiques ou digitaux, et leurs succès ininterrompus dans tous les domaines technologiques et scientifiques, les physiciens ont pu montrer que la plupart des processus macroscopiques identifiés dans l'univers pouvaient être simulés par des calculs informatiques. Ainsi en est-il aujourd'hui du mouvement des planètes et des astéroïdes, que l'informatique permet de décrire et de prévoir bien plus rigoureusement que ne le ferait la mécanique de Newton. Il est dont tentant, lorsque l'on veut extrapoler le regard à l'ensemble de l'univers, de supposer que, des plus petits aux plus étendus, les mécanismes naturels pourraient être analysés en termes de processus computationnels.

Ceci s'exprime de façon imagée par l'affirmation selon laquelle l'univers serait un immense calculateur. Ceci ne veut pas dire que derrière chaque action ou réaction se trouveraient des petits calculateurs qui les piloteraient, l'ensemble étant intégré par un calculateur géant définissant à tout instant le résultat final de tous ces calculs. Tout se passerait cependant comme si les forces physiques en oeuvre, et les grandes lois dites fondamentales par lesquelles elles s'expriment, pouvaient être simulées sans faute sur un ordinateur géant.

Les perspectives ouvertes par les calculateurs quantiques vont bien plus loin à cet égard. On ne sait pas encore très bien ce que permettrait de faire un calculateur quantique comportant des milliers ou millions de bits quantiques. On peut supposer au minimum que les possibilités de calcul ouvertes par un de ces systèmes permettraient aux scientifiques de mieux simuler les comportements complexes de l'univers. Au maximum, on peut supposer que l'univers lui-même serait composé d'éléments se comportant comme des calculateurs quantiques. Ceci serait moins surprenant que postuler qu'il fait appel à des calculs électroniques classiques, puisque par définition l'univers, en fonction des hypothèses de la physique quantique, est constitué de particules pouvant se comporter comme des bits quantiques. C'est ce qu'a pu affirmer Seth Lloyd, spécialiste du calcul quantique. Selon lui, affirmer que l'univers est un calculateur quantique constitue une vérité scientifique indiscutable. Resterait évidemment à montrer dans le détail comment s'expriment les calculs d'un tel ordinateur, et les conséquences en résultant concernant l'évolution globale de l'univers – y compris quand il s'agira de son avenir à court ou long terme. (Voir notre présentation de « Programming the universe » par Seth Lloyd http://www.automatesintelligents.com/biblionet/2006/avr/lloyd.html.

Restent cependant à l'écart des simulations permises par l'appel à ces divers types de calculateurs la compréhension des phénomènes de la physique quantique, tels que l'indétermination, la superposition d'état ou l'intrication. Selon le principe d'incertitude de Heisenberg, l'univers n'est ni prévisible ni déterministe. Plus précisément, il n'est pas possible de connaître à la fois la position d'une particule et sa vitesse. Ceci ne gène pas les sciences macroscopiques, qui manipulent avec précision de grandes quantités de particules (y compris dans les calculateurs électroniques). Elles s'appuient sur les probabilités statistiques s'attachant aux grands nombres. Mais la difficulté commence quand il s'agit d'étudier des particules isolées – le concept même de particule devant être nuancé puisque l'objet de ce nom pouvant être à la fois une particule ou une onde. Si l'on voulait simuler sur ordinateur le comportement de détail, voire la nature, d'une particule quantique – autrement donc qu'à travers des moyennes statistiques, on ne pourrait pas le faire. Il n'est donc pas évident d'affirmer dans ces conditions que l'univers dans son ensemble pourrait être régi par des processus s'apparentant à ceux des calculateurs, tels du moins que nous les connaissons.

Le même doute pèse sur d'autres phénomènes cosmologiques, tels que ceux évoqués par les concepts de big bang, inflation, expansion, trou noir, ou matière sombre. Les cosmologistes hésitent encore à les décrire avec précision. Ils seraient donc incapables d'imaginer des processus computationnels pouvant les expliquer, et moins encore les produire. Dans ces domaines, affirmer que l'univers se comporte comme un grand calculateur, fut-il proche de ce que nous appelons un calculateur quantique, relèverait non de la science mais de la poésie

2) Le modèle d'univers lagrangien selon Ken Wharton

Nous traduisons ici, en résumant un peu, ce qu'en dit Wharton dans son essai

Le principe de Fermat est aisé à poser. Entre deux points, quels qu'ils soient, le rayon lumineux prend le chemin le plus rapide. Ainsi quand un rayon traverse différents matériaux entre un point X et un point Y, le chemin emprunté sera le plus court possible, en comparaison de tous les autres chemins allant de X à Y. Si un rayon est coudé en passant de l'air à l'eau, ce n'est pas du à un enchainement de cause et d'effet, mais parce que c'est globalement plus efficace.

Aussi élégante que soit cette description, elle n'entre pas dans le Schéma Newtonien. Au lieu de poser des données initiales (par exemple la position et l'angle) le principe de Fermat requiert des entrées logiques qui sont à la fois initiales et finales (les positions de X et Y). L'angle initial n'est plus une donnée mais un résultat logique. Au lieu d'états qui évoluent avec le temps, le principe de Fermat aboutit à une comparaison entre des chemins entiers. Ces chemins ne peuvent évoluer avec le temps, du fait qu'ils couvrent déjà l'ensemble de l'espace de temps considéré.

Cette méthode n'est pas limitée aux rayons lumineux. Au 18e siècle, Maupertuis, Euler et Lagrange ont réussi à faire entrer l'ensemble de la physique classique dans un principe général de minimisation ****. En général, la quantité globale à minimiser est pour eux l' « action » * Comme le principe de Fermat, la Mécanique de Lagrange n'entre pas dans le Schéma de Newton. Elle représente donc une méthode alternative pour aborder le monde physique, méritant ainsi le qualificatif de Schéma Lagrangien.

Comme le Schéma de Newton, le Schéma de Lagrange correspond à une technique mathématique permettant de résoudre des problèmes physiques. Dans les deux schémas, il faut d'abord se donner une représentation mathématique de la réalité physique, en y inscrivant les évènements sous forme de paramètres. A cet égard le Schéma de Lagrange est le plus tolérant des deux. L'on peut choisir la paramétrisation la plus convenable sans changer les règles subséquentes. Au lieu d'un « état » , l'objet mathématique clef est un scalaire ** appelé le Lagrangien (ou dans le cas des champs classiques continus la « densité lagrangienne » L. *** L est une fonction de ces paramètres et de leurs dérivées locales.

Deux démarches sont nécessaires pour retrouver le monde physique à partir de L. Un premier pas consiste à contraindre L aux limites d'une région de l'espace-temps (c'est-à-dire définir X et Y dans la formulation de Fermat). Dans les champs continus, on définit des paramètres de champ continu. Mais on se limite aux paramètres frontières. Les paramètres intermédiaires et les dérivés des paramètres frontières peuvent avoir toutes les valeurs possibles à ce stade.

Un second pas consiste à choisir l'une de ces possibilités (on leur assigne des poids probabilistes) Ceci s'obtient en faisant la somme des densités lagrangiennes où que ce soit à l'intérieur de la frontière afin d'obtenir un nombre correspondant à l'action S. La solution classique consiste à minimiser l'action ****. On retrouve alors la réalité physique.

Précisions de JPB
* Maupertuis écrit ceci à ce sujet dans Principe de la moindre quantité d'action pour la mécanique (1744) « L'Action est proportionnelle au produit de la masse par la vitesse et par l'espace. Maintenant, voici ce principe, si sage, si digne de l'Être suprême : lorsqu'il arrive quelque changement dans la Nature, la quantité d'Action employée pour ce changement est toujours la plus petite qu'il soit possible. » . Ici, l'action est notée S.
** scalaire ou, pour simplifier, mesure. En algèbre linéaire, les nombres réels qui multiplient les vecteurs dans un espace vectoriel, sont appelés des scalaires.
***La fonction L est appelée densité lagrangienne. Elle dépend du champ q et de ses dérivées temporelle et spatiale.
**** Rechercher la moindre action

3. Les actions selon Michel Gondran

Dans un ouvrage à paraître, ainsi que dans deux articles publiés par Arxiv, Michel Gondran, physicien et ancien président de l'Académie interdisciplinaire européenne des sciences, n'a pas manqué de signaler l'importance du principe de moindre action et de ses applications dans les sciences physiques, y compris en physique quantique.

Mais il va plus loin que ne le fait Ken Wharton. Il montre qu'il existe en mécanique classique trois actions (et non deux) correspondant à différentes conditions de limites (boundary conditions): les deux actions bien connues: l'action Euler-Lagrange classique (Scla) action qui relie la position initiale x0 à sa position x dans un temps t, l'action Hamilton-Jacobi S(x;t) qui relie une famille de particules Scla(x) à leurs diverses positions au temps t, et une troisième action, qu'il propose de prendre en compte, non seulement en physique quantique mais en physique ordinaire, l'action déterministe S(x; t; x0; v0). Elle lie une particule dans la position initale x0 et avec la vitesse initiale v0 à sa position x au temps t.

Ces précisions montrent que Ken Wharton serait encore loin d'avoir épuisé la richesse d'un sujet certes difficile mais tout à fait d'actualité.

Pour retrouver le point de vue de Michel Gondran, ce à quoi nous incitons le lecteur, faire:
- Michel Gondran The Euler-Lagrange and Hamilton-Jacobi actions and the principle
of least action
http://jp.arxiv.org/pdf/1203.2736
- Article dans Computer science From interpretation of the three classical mechanics actions to the wave function in quantum mechanics http://ics.org.ru/eng?menu=mi_pubs&abstract=2078

Références concernant Ken Wharton
- L'essai de Ken Wharton The Universe is not a computer http://cpr-quantph.blogspot.fr/2012/12/12117081-ken-wharton.html
- Son article dans le New Scientist
http://cpr-quantph.blogspot.fr/2012/12/12117081-ken-wharton.html
- son article dans Arxiv (difficile) http://arxiv.org/abs/1301.7012

Pour en savoir plus
- Lagrangien http://fr.wikipedia.org/wiki/Lagrangien
- Intégrale de chemin http://fr.wikipedia.org/wiki/Int%C3%A9grale_de_chemin
- Principe de Fermat http://fr.wikipedia.org/wiki/Principe_de_Fermat
- Principe de moindre action http://fr.wikipedia.org/wiki/Principe_de_moindre_action
- Rappel de mécanique analytique. Le lagrangien
http://fr.wikiversity.org/wiki/Rappels_de_m%C3%A9canique_analytique/Lagrangien

Note au 13/02/2013, 20h

Kenneth Wharton nous écrit ce jour:

"I will mention that the Hamilton-Jacobi action is fully aligned with the "Newtonian Schema", not the "Lagrangian Schema". That so-called "action" assumes that the classical equations of motion are necessarily correct, and therefore it can be calculated without knowledge of the future. And it's this Hamilton-Jacobi action that is the one most aligned with standard quantum theory, putting them both in the "universe as computer" camp."

Repost 0

Articles Récents

Liens