Philosophie des sciences
De l'évolution et de l'émergence I par Jean-Paul Baquiast 03/03/2008
|
L'article est publié en deux morceaux compte tenu de sa longueur
Le journaliste scientifique Philippe Petit a consacré quatre séances de sa série Science et conscience, en février 2008 sur France Culture, au thème de l;&’eacute;mergence. Celui de
l'évolution lui est indissociablement lié. Les contributions des scientifiques et philosophes interrogés nous donnent l'occasion, pour notre part, de tenter une synthèse non seulement des
différentes acceptions données à ces deux concept aujourd'hui, mais de la façon dont, au regard de ces acceptions, nous pourrions nous représenter l'évolution du monde tel que ce monde nous
apparaît, depuis les premiers évènements décrits par le Big Bang jusqu'au développement contemporain, sur Terre, de systèmes dits artificiels capables de performances jusque là considérées comme
spécifiques de la vie et du cerveau humain dit conscient.
Nous pouvons faire l'hypothèse que la prolifération de ces systèmes artificiels, capables d'entrer en symbiose ou en conflit avec les organismes
vivants actuels, constituera un évènement majeur du 21e siècle - si d'ici là nos civilisations ne s'effondrent pas. En fonction de la définition que nous nous donnerons de l'évolution et de
l'émergence, nous pourrons considérer les systèmes artificiels comme une suite logique de l'évolution multi-millénaire des systèmes physiques et biologiques terrestres ou au contraire comme
marquant une rupture aux conséquences susceptibles d'affecter éventuellement notre environnement cosmologique tout entier.
Introduction
Rappelons d'abord comment le cerveau du sujet construit des modèles du monde permettant à celui-ci de s'adapter au milieu dans lequel il vit
(cf. par exemple : « Making up the Mind », de Christopher Frith et notre chronique http://www.automatesintelligents.com/biblionet/2007/juil/frith.html). Il faut se représenter le sujet comme un organisme
vivant (on ne définira pas la vie à ce stade) doté d'une membrane ou frontière le séparant du monde extérieur et communiquant avec ce dernier par des périphériques : organes sensoriels et organes
effecteurs. Ces organes sont reliés par un système nerveux lui-même doté, dans les organismes évolués, d'une centrale d'interconnexion, de mémorisation et de traitement des données provenant des
périphériques. Nous l'appellerons le cerveau.
L'organisme vivant « néguentropique » est plongé dans un milieu non vivant qui exerce sur lui une pression « entropique » tendant en permanence
à le dissoudre. Pour survivre, il doit donc trouver dans ce milieu les éléments lui permettant de se développer et éviter ceux susceptibles de le détruire. Mais le milieu renferme une quantité
illimitée de ressources potentiellement utiles ou nuisibles. L'organisme ne connaît que celles du milieu local avec lequel il est en contact immédiat. Il doit donc se construire un modèle
dynamique de ce milieu local. Il élaborera par essais et erreurs, à partir de ce modèle, des stratégies de survie exploitant au mieux les ressources locales.
Ce processus commence dès les origines de la vie. On peut considérer qu'une bactérie est du fait de son existence un modèle du milieu dans
lequel elle cherche à survivre. Ses différentes propriétés sont en effet adaptées aux caractères du milieu dont elles représentent si l'on peut dire une image en creux. On peut aller plus loin et
dire que la bactérie représente un concept global, fait de concepts de détail, par lequel elle-même et le réseau bactérien auquel elle appartient modélisent le milieu afin de l'exploiter.
Dans le langage courant, un concept est défini comme « une idée ou représentation de l'esprit qui abrège et résume une multiplicité d'objets
empiriques ou mentaux par abstraction et généralisation de traits communs identifiables par les sens ». (Wikipedia). Nous ajouterions à cette définition une précision importante. Un concept ne se
crée pas dans l'esprit (plus exactement dans le cerveau) sans que ceci réponde à une utilité. Le concept se crée dans le cerveau parce que celui-ci est capable d'abstraire à partir de perceptions
différentes les traits communs qui peuvent faire soupçonner une permanence intéressante pour la survie. Le concept permet donc de réagir rapidement à une perception nouvelle. Ou bien celle-ci
signale un élément du monde extérieur déjà connu et ne nécessitant pas un effort d'adaptation, ou bien elle signale un élément nouveau, avantageux ou dangereux, non prévu par le concept et auquel
il faudra s'adapter. Dans ce cas, en cas de succès des conduites d'adaptation, après un temps de latence suffisant pour éliminer les perceptions parasites, le concept sera enrichi ou modifié en
profondeur.
Tout ceci se modélise aujourd'hui très facilement avec des robots dotés de corps comprenant des organes sensoriels, des organes effecteurs et
une unité centrale. Les informations reçues directement en entrée ou indirectement en retour de celles émises en sortie construisent dans l'unité centrale du robot une représentation du milieu
dans lequel le robot opère. A cette fin, l'unité centrale est équipée de dispositifs capables d'apprentissage, tels des réseaux de neurones formels. En interagissant avec le milieu, le robot se
dote progressivement d'un modèle symbolique du monde tel qu'il le perçoit par ses organes d'entrée-sortie. Ce modèle est construit à partir des expériences passées du robot et sert de référence
pour les décisions futures.
Si le robot avait précédemment constaté qu'un pied de table l'empêchait de progresser, il évitera dorénavant tout ce qui sera perçu comme
équivalent à un pied de table, par exemple un pied de chaise ou la jambe d'un opérateur. Son cerveau se sera donc enrichi d'une représentation générique ou concept désignant non pas un pied de
meuble mais un obstacle à la progression. Lorsqu'il identifiera dans son environnement un nouvel obstacle, il se référera à ce concept pour choisir entre deux « comportements de survie »
différents, éviter l'obstacle ou, s'il est léger, continuer à progresser en le bousculant. Ajoutons (nous simplifions) que lorsque plusieurs robots opèrent en groupe, ils apprennent à échanger
leurs représentations individuelles ou concepts par l'intermédiaire d'un langage symbolique commun élaboré spontanément. Le langage fait correspondre à chaque concept un signal permanent grâce
auxquels les contenus de mémoires peuvent être échangés. Les robots se dotent ainsi d'une représentation collective du monde cumulant les expériences individuelles de chacun d'entre eux et
augmentant leur réactivité. Si un robot identifie un obstacle infranchissable, il le signalera aux autres, ce qui leur évitera de gaspiller de l'énergie en s'en approchant pour l'identifier
eux-mêmes.
Cette définition correspond à la façon dont un humain doté d'un cerveau associatif et capable de verbalisation langagière se représente le monde
afin de s'y adapter. Mais elle peut être « dégradée » pour s'appliquer à des organismes dotés d'un cerveau plus rudimentaire, dont les capacités de création de concept et d'échange sont moindres.
Au plus bas de l'échelle, nous avons mentionné les bactéries, qui sont handicapées par le manque de système nerveux. Leurs capacités de représentation symbolique sont très réduites, même
lorsqu'elles opèrent en groupe (web bactériens). Les échanges qu'elles entretiennent sont également très réduits. Mais ils existent néanmoins, sous forme de messages chimiques. On connaît le
désormais célèbre « quorum sensing », processus par lequel des bactéries évaluent leur population au sein d'un organisme infecté, afin de ne devenir virulentes que si elles sont en
nombre suffisant pour submerger les défenses immunitaires de l'hôte.
Mais prenons un primate arboricole, dont les organes sensoriels et de traitement de l'information sont très proches de ceux de l'homme. Le «
système primate » peut plus facilement que le « système bactérie » être simulé par un robot du type de celui que nous venons de décrire. Plaçons en esprit ce primate dans une forêt parcourue de
prédateurs. A la suite de millions d'années de lutte pour la survie, le cerveau de ce primate a construit sous forme d'associations permanentes entre neurones des représentations du monde
forestier dangereux dans lequel l'espèce s'est développée. Jean-Pierre Changeux appelait ces représentations des objets mentaux. Nous les appellerons conformément à la terminologie utilisée ici
des concepts non verbalisés. Ces associations entre neurones ou objets mentaux ou concepts peuvent être dits épigénétiques, car une grande partie correspond à des acquis de l'espèce transmis par
héritage et une autre, sans doute moins importante, à des apprentissages individuels dits aussi culturels. Les concepts dont disposent ces primates sont en nombre réduits et d'ampleur elle-même
strictement limitée aux besoins de survie. L'animal ne s'intéresse qu'à son milieu. Ceci parce que l'organisme, spontanément, fonctionne à l'économie, comme d'ailleurs toutes les structures
naturelles. Recueillir des données, les mémoriser et les traiter consomme beaucoup d'énergie.
Les cerveaux de nos ancêtres primates, ceux qui ont survécu aux pressions de sélection, ont supposé (fait l'hypothèse), par essais aléatoires et
erreurs, que certaines lignes horizontales et verticales correspondaient aux excroissances de « quelque chose » dans lequel il était possible de se réfugier pour échapper à un danger. De même
leurs cerveaux ont fait l'hypothèse que des images identiques se succédant rapidement et conforme à un certain modèle (couleur noire, être pourvu de griffes et de dents…je simplifie)
correspondaient à l'approche d'une entité déjà enregistrée en mémoire comme capable de faire des blessures douloureuses à laquelle il fallait échapper. Bien évidemment, les constructions que des
millions d'années après, ayant hérité génétiquement de l'expérience de ces primates, nous percevons avec un grand luxe de détails utiles n'étaient aux origines ni nommées ni détaillées. Nos
ancêtres animaux ne percevaient aux origines ni un arbre ni une panthère, mais un ensemble de stimulus cohérents comparables à ceux que le modèle du monde acquis par apprentissage pouvait
produire dans des circonstances identiques. Si les perceptions nouvelles étaient suffisamment proches de celles provenant du « concept » mémorisé comme représentant une entité dangereuse, le
cerveau déclenchait les comportements d'évitement adéquats
A l'inverse, tous les primates ayant fait, toujours sur le mode exploratoire par essais et erreurs, des hypothèses différentes relativement à ce
que désignaient les messages sensoriels provenant de ce que nous appelons aujourd'hui un arbre et une panthère, n'ont pas vécu assez longtemps pour que leur cerveau construise le modèle d'un
monde différent – un monde comportant par exemple un arbre mou dans lequel il serait impossible de trouver un abri ou une panthère conviviale s'approchant pour se faire caresser.
Aujourd'hui encore, les primates humains que nous sommes ne peuvent pas affirmer avec une certitude absolue que l'entité arbre puisse nous
servir d'abri ou que l'entité animal sauvage que nous voyons s'approcher puisse être dangereux. Si par extraordinaire, nous découvrions que certaines de ces entités se comportaient d'une autre
façon que celle mémorisée après des millénaires d'expérience, nous serions conduits à modifier notre jugement sur elles en particulier et sur le monde en général. Nous dirions que, dans certaines
circonstances, le monde comporte des arbres flexibles comme des roseaux et des panthères caressantes comme des chats.
Il est important de bien comprendre l'exemple qui précède pour comprendre le jugement que nous pouvons porter sur un monde dont nous constatons
tous les jours les changements et au sein duquel nous constatons tous les jours l'apparition de caractères nouveaux. Si nous constatons que le monde se transforme au lieu de rester fixe, nous
pourrons nommer évolution les changements qu'il subit. Si nous constatons par ailleurs que, dans le cadre de cette évolution, il fait apparaître des propriétés jamais vues jusqu'alors et
inexplicables, nous pourrons qualifier d'émergentes ces apparitions. Des animaux ne disposant pas d'un vaste cortex associatif capables de projections étendues perçoivent sans les nommer les
phénomènes traduisant ce que nous appelons l'évolution et l'émergence. Il faut voir avec quelle circonspection ils considèrent tout phénomène évolutif qu'ils ne connaissent pas ou dont ils ne
peuvent prédire l'évolution, comme le feu. Leur cerveau perçoit clairement, même s'il ne peut le verbaliser, ce que signifie « évoluer » et l' « émergence » potentielle de situations nouvelles
pouvant résulter de cette évolution.
Nous pourrions faire comme les animaux, nous limiter à n'utiliser les concepts d'évolution et d'émergence que dans la limite des cas où nous
pouvons constater leur adéquation aux perceptions de nos sens, éventuellement complétés des instruments de la science moderne. Nous pourrions éviter d'imaginer qu'il existe une Evolution ou une
Emergence indépendantes de nos observations actuelles, dont nous pourrions à force d'hypothèses et d'expériences futures, découvrir progressivement les raisons d'être intrinsèques. Nous
pourrions, mieux encore, éviter de faire le postulat qu'il existe une Evolution et une Emergence en soi, dotées de propriétés que ni nos sens ni nos cerveaux ne pourront jamais faire
l'expérience, compte tenu de leurs limites indépassables.
Mais les cerveaux humains, même réunis en réseau dans la société scientifique, ne fonctionnent pas ainsi. Ils ont appris que l'audace des
hypothèses faisait avancer les connaissances. Certes, les hypothèses métaphysiques ne vont pas très loin en ce sens, car elles ne sont pas relayées par l'expérience. Mais l'induction et
l'abduction scientifiques permettent au contraire, à partir de faits nouveaux suscités par l'évolution propre des technologies d'expérimentation, de formuler des modèles du monde allant au delà
des possibilités instrumentales du moment, dans l'espoir qu'elles pourront être vérifiées ultérieurement par la voie expérimentale.
L'inconvénient de ces hypothèses, quand elles sont connues du grand public sans expérience scientifique, ou quand elles sont exploitées par des
croyances religieuses voulant s'en servir comme argument en faveur des affirmations de leurs écritures, est d'alimenter des débats qui obscurcissent dangereusement le regard que nous pouvons
porter sur les phénomènes susceptibles d'être interprétés en termes d'évolution et d'émergence. L'évolution pose directement la question du temps, des origines et du devenir. L'émergence pose
celle des raisons par lesquelles le nouveau apparaît à partir de l'ancien. Il s'agit de questions que les philosophes et les religions, depuis qu'elles existent, ont cherché à résoudre avec les
concepts à leur portée. Aussi respectables que soient les réponses proposées, elles ne peuvent être considérées comme scientifiques. Malheureusement, elles interfèrent en permanence avec les
efforts de modélisation scientifique et retentissent sur la façon dont chacun d'entre nous considère le monde en général, l'évolution et l'émergence en particulier. Les scientifiques, malgré
l'audace de leurs hypothèses, qui rejoint et dépasse souvent celle des philosophes et des mystiques, sont obligés de rappeler qu'il ne s ‘agit que d'hypothèses. Nous sommes alors tentés de ne pas
tenir compte de leur prudence, que nous trouvons bien décevantes au regard des promesses de l'imaginaire et de la foi du charbonnier.
Nous voudrions montrer ici que, malgré les difficultés, il devrait être possible de se donner une représentation prudente de l'évolution de
l'univers et des émergences multiples qui l'ont marqué. Nous n'aurons pas l'outrecuidance de prétendre que cette représentation serait à proprement parler scientifique. Elle évitera par contre
les extrapolations hasardeuses, qui ne peuvent faire que le lit des fausses sciences et de ceux qui vivent de leur commerce.
On rappellera que les concepts d'évolution et d'émergence, tout relatifs qu'ils soient, n'ont pas été construits dans notre cerveau individuel
au reçu des informations provenant de nos seuls sens personnels. Ils résument, dans la société scientifique qui est la nôtre, l'expérience acquise par des millions d'observateurs à travers les
âges, ayant utilisé des millions d'instruments d'observation différents et ayant consignés et critiqués le résultat de leurs observations dans des millions de pages accessibles facilement. C'est
là le propre des comportements humains dits scientifiques. Si, globalement, toutes ces observations confirment l'hypothèse selon laquelle les concepts d'évolution et d'émergence permettent de
représenter de façon à peu près adéquate un très grand nombre de situations observées et vécues en dehors de nous, la confiance que nous pouvons apporter à leur validité pour décrire le monde
auquel nous devons, aujourd'hui comme jadis, nous adapter pour survivre, sera confortée. Nous pourrons aller jusqu'à dire que nous « croyons » à leur validité. Mais nous n'y croyons pas d'une
façon aveugle, comme les adeptes d'une religion croient en leur dieu. Nous n'y croyons que sous réserve des résultats de nouvelles expériences.
I. L'univers, l'évolution, l'émergence et la démarche de la science.
Ces deux concepts d'évolution et d'émergence sont dorénavant constamment utilisés, comme l'ont rappelé les intervenants invités par Philippe
Petit, en cosmologie, en physique, en biologie et dans les sciences humaines. Mais on leur donne généralement des acceptions différentes. Ceci peut poser un problème méthodologique. Est-ce que
l'unité des connaissances n'en souffre pas ? On pourrait souhaiter pour éviter ce risque réunir les diverses disciplines, malgré leurs nécessaires différences d'approche, par une vision commune
de la façon dont elles utilisent les concepts d'évolution et d'émergence. Même si les observables étudiées par chacune d'entre elles ne sont pas identiques, notamment en terme de complexité, ces
diverses disciplines ne s'inscrivent-elles pas dans une « vision » commune de l'univers, fonction de nos outils conceptuels (notamment de l'usage que nous faisons des mathématiques), des
potentialités de nos instruments et finalement d'un certain nombre de paradigmes voire d'effets de mode structurant en profondeur et de façon généralement mal perçue, la société scientifique de
chaque époque.
L'évolution
Le concept d'évolution n'est généralement pas discuté, tout au moins quand il s'agit de décrire le monde macroscopique dit quotidien. Tout au
plus pose-t-il, nous l'avons évoqué, la question encore non résolue de la consistance du temps : celui-ci est-il lié ou non aux évènements qui s'y enchaînent ? Mais on peut traiter l'évolution du
monde macroscopique, dans la tradition newtonienne, en considérant qu'elle se déroule dans un cadre d'espace temps indépendant de son contenu. La physique quantique le permet également. Les
difficultés ne surgissent que dans le cadre de la relativité générale poussée à ses extrêmes, si l'on admet l'hypothèse qu'aux origines d'un univers ou à l'occasion de la création de trous noirs,
se trouvent ou apparaissent des corps si massifs qu'ils courbent l'espace temps jusqu'à la formation de singularités, c'est-à-dire d'univers ponctuels dont la physique actuelle ne peut rien dire
mais où l'écoulement du temps devrait s'arrêter.
Le concept d'émergence est infiniment plus compliqué, au moins en apparence. Pour tenter de le clarifier, nous distinguerons l'émergence dans le monde macroscopique et l'émergence dans le monde
quantique
L'émergence dans le monde macroscopique
Aujourd'hui, dans les sciences du monde macroscopique, faire appel à l'émergence signifie que l'on ne peut pas donner d'explication
réductionniste à l'apparition ou à la nature du phénomène dont on dit qu'il est émergeant, c'est-à-dire dont on dit qu'il s'impose subitement et sans avertissements à l'attention d'un
observateur. Le réductionnisme, qui n'a rien d'infamant, contrairement aux affirmations des émergentistes de tendance mystique, consiste à expliquer l'apparition d'un phénomène nouveau par des
règles ou faits déjà connues. Ainsi l'émergence d'un virus comme celui du sida, qui a surpris les virologues, peut s'expliquer de façon réductionniste par ce que l'on sait des mutations et des
conditions environnementales favorisant la naissance des épidémies. Même des questions précises « pourquoi ce virus particulier, pourquoi en ce lieu et à ce moment ? », pourraient (en principe)
trouver des réponses si l'on disposait d'informations suffisamment détaillées. En théorie, le virologue serait en droit de répondre, comme le démon de Laplace : donnez-moi les conditions
initiales et je vous expliquerai le sida, son apparition, son évolution et par extension, l'évolution de la vie sur la Terre.
Les spécialistes de la théorie du chaos expliqueront que la compréhension rétroactive et à fortiori la prévision sont, dans ce cas comme dans
pratiquement toutes les autres questions auxquelles la science s'intéresse, rendues impossibles par l'incertitude inévitable concernant les données initiales. Celle-ci introduit l'effet papillon
bien connu. Mais il s'agit d'une évidence qui n'exige pas d'attribuer au concept d'émergence une portée quasi religieuse. D'une part l'analyse probabiliste demeure toujours possible, avec une
efficacité régulièrement croissante due à la puissance des ordinateurs et à l'utilisation de certains outils mathématiques nouveaux. D'autre part, à supposer que la science ne puisse jamais
expliquer l'histoire et l'avenir de l'évolution de chacun des atomes constituant l'univers – ce qui est le cas – cela n'oblige pas à dire que la démarche réductionniste de la science n'ait pas
d'intérêt. Elle permet d'éliminer toutes les pseudo-explications des pseudo-sciences refusant de faire le difficile travail d'analyse des facteurs causaux et de leur enchaînement.
Par contre, le réductionnisme ne doit pas être utilisé là où, serait-il possible, il imposerait un travail d'investigation des détails qui
empêcherait – ne fut-ce que parce que la science, comme tout comportement naturel, fonctionne à l'économie - l'identification et l'étude des grands ensembles. Les sciences dites de la complexité
(terme dont on peut admettre qu'il n'a d'intérêt que comme métaphore) ont fait beaucoup progresser les études scientifiques en tous domaines parce qu'elles ont incité à considérer comme
observables des macro-objets et macro-processus jusqu'alors rendus invisibles par une attention excessive aux détails de ces mêmes macro-objets et macro-processus. Nous avons rappelé
précédemment, dans cette revue et dans nos livres ( JP Baquiast, Pour un principe matérialiste fort, Jean-Paul Bayol, 2007) le véritable nouveau regard apporté, en biologie comme dans
les sciences humaines, par l'étude des super-organismes. Ceux-ci sont considérés comme des organismes vivants et la science s'attache à étudier leurs interactions au sein de super-populations
fonctionnant en réseaux. Dans ce cas, mettre l'accent sur tel comportement de tel individu composant l'un de ces super-organismes est certes important, mais ne suffit pas à comprendre le
fonctionnement du super organisme tout entier. Autrement dit, considérer des niveaux d'intégration de plus en plus élevés (dans l'ordre de la complexité) permet de traiter comme des observables
des entités globales jugées dignes d'étude, sans obliger à rechercher les comportements individuels de leurs composants. Ceux-ci sont, au mieux, étudiés en termes statistiques.
Est-il nécessaire de faire appel à l'émergence pour comprendre le comportement voire la nature d'un super-organisme ? Observons d'abord
qu'identifier, au-delà des objets directement visibles par notre cerveau, des ensembles réunissant ces objets, constitue une démarche pratiquée depuis des millénaires, non seulement par la
science mais par le langage empirique. Cela fait au moins 3.000 ans que le langage a pris l'habitude de parler de la société politique, telle par exemple la nation, en dépit du fait que les
composants de cette nation restaient fort confus. Intuitivement, ceux qui ambitionnaient de s'adresser à la supposée nation comprenaient qu'une « personnalité » supérieure à celle des individus
s'en dégageait. Les qualifier d'émergentistes avant la lettre n'apporterait pas grand-chose.
Les émergentistes d'aujourd'hui font valoir, à l'encontre des réductionnistes, que les parties ne peuvent définir les propriétés du tout.
L'étude de la fourmi, disent-ils, ne fera pas comprendre le comportement de la fourmilière. De même, l'étude des atomes de la fourmi ne fera pas comprendre le comportement de la fourmi. Il est
évident que ce ne sont pas les lois des parties qui peuvent expliquer la loi du tout. C'est au contraire le tout qui peut expliquer les lois des parties. Pour étudier utilement la fourmilière, il
faut donc la considérer comme un tout présentant des propriétés propres. Mais faut-il la qualifier de phénomène émergent ?
Encore une fois, nous observons en permanence des phénomènes nouveaux, ou prenons des points de vue nouveaux sur le monde, sans évoquer
l'émergence. L'étude d'un phénomène ou d'un objet commence d'abord par l'étude de ses caractères ou comportement globaux, au regard du milieu dans lequel il se trouve immergé. Tout entomologiste
conséquent, tout au moins aujourd'hui où le regard s'est élargi aux systèmes, se représente la fourmilière comme un super-organisme en interaction avec de multiples autres, semblables ou
différents. C'est seulement, par exemple, après avoir analysé les échanges énergétiques de la fourmilière avec son milieu qu'il cherche à comprendre le rôle de l'ouvrière dans l'activité de
fourragement nécessaire à la survie de la fourmilière. Pour commencer à étudier utilement la fourmi, il doit avoir identifié au préalable les fonctions que celle-ci en tant qu'individu doit
exercer au service du fonctionnement de la fourmilière. Sinon, aucun critère sérieux de recherche ne pourrait guider son étude de la fourmi. Il risquerait par exemple, avec un peu trop
d'imagination, de chercher à vérifier l'hypothèse selon laquelle la patte arrière droite de celle-ci lui sert, dans le secret de la fourmilière, à se nettoyer le nez.
Les scientifiques, même quand ils ne perçoivent pas immédiatement les causes des phénomènes étudiés, n'affirment pas a priori que leurs
propriétés ne sont pas réductibles à celles de leurs parties. Cette affirmation leur paraît si évidente qu'ils auraient honte de la présenter comme une grande découverte méthodologique. En
conséquence, ils se gardent de distribuer des brevets d'émergence à tout objet non encore observé par leurs prédécesseurs et dont ils veulent entreprendre l'étude. S'ils faisaient ainsi, ils
s'interdiraient l'analyse réductionniste, qui constitue quand même la meilleure façon de comprendre la raison d'être de la nouveauté. En général, comme indiqué ci-dessus, confrontés à un
phénomène dont la raison d'être ne saute pas aux yeux, les scientifiques se bornent à étudier les propriétés globales de ce phénomène, relativement au milieu environnant. Dans un second temps,
déjà guidés par l'opinion qu'ils se seront faite du phénomène, ils essaieront de décomposer celui-ci en « parties » dont ils essaieront de comprendre la contribution au comportement du tout. En
fait, quand on observe le travail scientifique, on constate qu'il suppose un aller et retour permanent entre l'étude du tout et celle de ses parties, l'une et l'autre poussée aussi loin que
possible. Ce ne sera qu'en cas d'échec de cette double approche que l'on pourra se risquer à parler d'émergence.
On nous objectera que l'émergentisme est né en réaction aux abus du réductionnisme. Les manuels émergentistes sont pleins d'exemples où la
volonté d'expliquer les lois du tout par celles des parties a généré des erreurs monumentales – que ce soit en science ou dans la pratique empirique de la vie courante. L'exemple le plus cité est
celui de la médecine, qui tend à oublier que le patient est un organisme global. Il peut donc être contre-productif de lui appliquer des traitements visant à traiter le dysfonctionnement le plus
évident, en ignorant tous les autres.
Mais on peut soutenir que les abus du réductionnisme dérivent des abus du réalisme en science. Celui-ci tend à considérer que tout objet perçu
par le regard correspond à une entité d'un Réel en soi dont les propriétés existeraient indépendamment du regard de l'observateur. Il en résulte une réification de l'objet à qui l'on prête des
propriétés dérivées de celles attribuées au Réel d'arrière plan supposé. Ainsi la médecine moderne voit en chaque patient une entité indépendante du regard du praticien et participant d'un
processus réductionniste défini par les manuels de médecine et les réglementations sociales. Elle ne voit donc pas l'intérêt de jeter sur lui un regard permettant de le faire descendre de son
piédestal d'être-en soi (qu'il n'est pas), afin de voir en lui la construction en constant remaniement résultant de la conjonction du regard du praticien, des données fournies par les analyses et
d'une spécificité insondable tenant à sa nature personnelle et à son histoire individuelle.
Les abus du Réalisme ontologique ont été soulignés dès l'apparition de la mécanique quantique. Celle-ci reconnaît que les entités microscopiques
(particules, ondes, etc.) n'existent pas comme des réalités indépendantes de l'observateur. Elles sont « construites », en tant qu'objet de science, par un processus reliant l'observateur, les
instruments dont il dispose (avec leurs limitations) et un monde sous jacent dont nul ne peut rien dire a priori. Or, comme l'a bien expliqué Mme Mugur-Schächter, le processus qu'elle a nommé de
conceptualisation relativisé utilisé en physique quantique pourrait avec beaucoup d'avantages être étendu à toutes les sciences sans exception et ceci sans se référer à un monde sous jacent qui
ne serait pas observable directement. Nous avons nous-même montré comment, grâce à l'utilisation de cette méthode, il était possible de traiter scientifiquement et donc efficacement un
macro-processus tel que le chômage, alors qu'aucun sociologue ne rencontrera jamais le chômage au coin de la rue, mais seulement des chômeurs trop différents pour qu'il soit possible de leur
appliquer des outils d'analyse macro-économique, macro-sociologique ou macro-politique permettant de lutter contre le chômage (JP. Baquiast, op.cit.).
Mais qui dira que tel ensemble de caractères cohérents, par exemple la volonté de défendre le territoire et d'en exclure les étrangers, méritera
d'être considéré comme un super-organisme et d'être étudié en tant qu'entité distincte ? Ce seront les observations que nous ferons à son propos ou, si l'on préfère, les informations émises par
ce super-organisme et qui, pour des raisons découlant de notre histoire personnelle, s'imposeront à nos cerveaux en générant un comportement d'investigation propre à tous les organismes vivants.
Si je constate qu'une foule se comporte de façon agressivement effrayante alors que toutes les personnes qui la composent se comportent individuellement comme des agneaux, je me dirai que le
phénomène de foule ou de groupe mérite une étude avec des instruments spécifiques. Mais à nouveau, qui dira que la foule se comporte de façon agressive, alors qu'une personne vivant dans une
société habituée à la violence ne ferait pas attention à cette agressivité ? Ce sera à nouveau moi qui formulerai ce jugement. Je serai conduit à le faire par une sensibilité formée dans une
société dite policée et parce que je suis doté d'un cerveau porteur de toutes les références inscrites par des années d'appartenance à cette même société policée.
Si donc, dans les sciences du monde macroscopique, nous souhaitions parler d'émergence avant d'étudier un phénomène nouveau qui nous préoccupe,
ce serait notre droit. Mais ce mot ne devrait pas être seulement considéré comme un cache misère ou un renoncement signant l'incapacité de la science à entrer dans les détails, comme le disait
Mme Maurel dans l'émission de France Culture (voir ci-dessous) mais plutôt un raccourci, ce que l'on nommerait en anglais un fast-track, permettant d'aller à l'essentiel compte-tenu des
limites en crédits et en temps dont souffrent les chercheurs. Nous pourrons donc reprendre pour désigner ce type d'émergence le qualificatif suggéré lors de ladite émission, celui
d'émergence faible.
On parlera d'émergence faible à propos d'un phénomène pour indiquer que ce phénomène possède des causes que la science pourrait expliciter
(comme elle pourrait expliciter la raison pour laquelle un dé retombe sur telle face et non sur les autres). Mais elle reconnaît n'avoir ni le temps ni la volonté de les étudier. Elle préfère
étudier la façon globale dont ce phénomène se manifeste. Indiquons en passant que ce terme d'émergence faible devrait suffire à décourager les fausses sciences et autres mythologies religieuses
qui prétendent voir derrière chaque nouveauté la manifestation de l'autorité divine. La science répondra aux campagnes spiritualistes arguant de l'inconnaissabilité ontologique des causes,
qu'elle pourrait s'intéresser à ces causes et les faire apparaître, mais que ce travail ne lui parait pas prioritaire au regard de l'étude des effets. Le terme d'émergence faible ne nie pas que
des problèmes existent et mériteraient étude, mais il propose au public et aux organismes qui financent la science de ne pas en faire des priorités.
L'émergence dans le monde quantique
Ceci dit, à quel moment pourra-t-on parler d'émergence forte ? On appellera émergence forte une émergence considérée comme
durablement sinon définitivement inexplicable par la science. Or il n'y a aujourd'hui qu'un seul domaine dans lequel les scientifiques estiment généralement se heurter à des inconnaissables,
sinon absolus, du moins infranchissables sans modifications profondes des méthodes et des outils. Il s'agit du monde quantique et des nombreux domaines de la cosmologie ou même des sciences
macroscopiques impliquant des entités quantiques.
Une partie de la physique moderne, voire d'autres sciences moins dures, font désormais appel à ce concept d'émergence, entendu au sens fort.
Robert Laughlin, qui reste après quelques années le pape de la question, s'est livré à une défense tous azimuts de l'émergence forte. Il n'emploie pas ce terme, ce qui jette un peu de confusion
dans ces propos. Mais c'est en général à l'émergence forte qu'il fait allusion, que ce soit en physique fondamentale ou dans la physique de tous les jours (voir R. Laughlin, A Different Univers,
JP.Baquiast op.cit et notre article
http://www.automatesintelligents.com/biblionet/2005/juin/laughlin.html ).
Pour lui comme pour la plupart des physiciens, la mécanique quantique ne permet pas de comprendre l'univers en profondeur, et moins encore
d'agir sur lui. Elle permet juste d'interpréter un certain nombre des phénomènes nouveaux que révèle le développement des instruments et des expériences, par exemple au sein des accélérateurs de
particules. Le monde quantique, dans ses profondeurs, est et restera inconnaissable. C'est ainsi que parler de vide quantique représente simplement une façon de désigner quelque chose
d'indéfinissable, sous-jacent à la réalité matérielle, dont on constate seulement telle ou telle manifestation dans telle ou telle expérience. De même les particules qui émergent du vide
quantique ne sont ni des ondes, ni des particules ni les deux à la fois. Elles sont définitivement autre chose. Ceci n'empêche pas de les utiliser, dans certaines conditions.
Concernant la cosmologie, Robert Laughlin se sépare profondément des travaux des cosmologistes théoriciens visant à décrire de façon réaliste les états passés, présents et futurs de l'univers. Il
estime que ces travaux relèvent non seulement de la science fiction mais d'une méconnaissance profonde de ce qu'est selon lui l'univers, c'est-à-dire le produit d'une émergence. Il s'en prend
particulièrement à la Théorie du Tout, qui prétendrait trouver une équation unique à partir de laquelle on pourrait déduire toutes les autres formes de connaissances. Cette ambition, triomphe du
réductionnisme, selon laquelle les lois des mécanismes élémentaires permettent de déduire la loi du système complexe, ignore dramatiquement la théorie de l'émergence.
Sa critique touche un point de grande importance philosophique. Il nous rappelle que la physique contemporaine repose sur la connaissance de ce que l'on appelle des constantes universelles. Pour
lui, il s'agit seulement d'expériences donnant un résultat universel. On en trouve une vingtaine, telle la vitesse de la lumière dans le vide ou la constante de Rydberg. Mais le caractère
apparemment universel de telles expérimentations est un piège. Il conduit à faire penser que ces constantes ont mis en évidence les briques primitives à partir desquelles est construite la
réalité. Ainsi, si la vitesse de la lumière apparaît constante aujourd'hui, ce serait parce que la lumière serait une composante élémentaire de l'univers. Or prendre en considération les
phénomènes d'émergence montre que cette constante elle-même résulte d'un phénomène d'organisation sous-jacent. La lumière pourrait être le produit d'une émergence. Fondamentalement, derrière les
constantes, on pourrait retrouver si on s'en donne la peine l'incertitude et l'inconnu. Toutes les constantes dites fondamentales requièrent un contexte environnemental organisationnel pour
prendre un sens. Beaucoup de ses collègues ne partagent pas ce point de vue, mais il est intéressant.
Un « émergentiste fort » comme Laughlin considère que la réalité quotidienne est un phénomène d'organisation collective, se traduisant par des « vérités » statistiques ou probabilistes (ce qu'ont
dit depuis longtemps les biologistes et les physiciens quantiques). On peut pour des besoins pratiques, dans le monde quotidien, décrire les objets macroscopiques comme des constructions d'atomes
situés dans l'espace-temps newtonien, mais l'atome isolé n'est pas newtonien. C'est une entité quantique « éthérée » manquant de la première des caractéristiques du monde newtonien, la
possibilité d'être défini par une position identifiable. Ceci apparaîtra non seulement dans les expériences de la physique quantique, mais dans les expériences de la physique des matériaux et des
états de la matière intéressant la vie quotidienne. Les physiciens s'intéressant aux phénomènes macroscopiques doivent donc eux aussi apprendre à gérer l'incertitude née de l'émergence,
considérée comme un aspect incontournable de toute « réalité » et la voie permettant d'accéder à de nouvelles découvertes. Ceci du moins quand ils considéreront les composants les plus bas dans
l'échelle des organisations que sont les « ondes » et les «particules » quantiques.
Quelle valeur attribuer à cette acception de l'émergence forte. Elle se distingue radicalement de l'émergence faible, puisque, contrairement à elle, elle pose l'existence d'une barrière
d'inexplicabilité. Face à un phénomène faisant appel à des entités quantiques, les sciences ne sont évidemment pas désarmées. Les technologies non plus. Elles en font de très nombreux usages.
Mais les unes et les autres traitent les phénomènes quantiques en se limitant à l'observation de leurs manifestations statistiques. Elles ne cherchent pas à comprendre en profondeur ce qui se
trouverait derrière les phénomènes. Certains scientifiques s'y essayent parfois, dans le sens de ce qui était appelé il y a quelques décennies la recherche des variables cachées. Mais sans succès
avéré à ce jour. D'autres postulent que cette recherche découle d'un mauvais fonctionnement du cerveau humain. Il génère dans certaines applications des « passages aux limites » qui ne s'imposent
pas dans la nature. On les retrouve dans des domaines de fonctionnement aussi différents que les mathématiques et la métaphysique. Selon ce postulat, les cerveaux biologiques, même lorsqu'ils
sont interconnectés dans les réseaux de la recherche scientifique, ne peuvent dépasser les limites imposées par l'architecture et les composants des organismes vivants auxquels ils
appartiennent.
Pour la suite, se référer à la 2e partie