Overblog
Editer l'article Suivre ce blog Administration + Créer mon blog

Texte libre


Pourquoi ce blog ?

Cet ensemble de textes a été conçu à la demande de lecteurs de la revue en ligne Automates-Intelligents souhaitant disposer de quelques repères pour mieux appréhender le domaine de ce que l’on nomme de plus en plus souvent les "sciences de la complexité"... lire la suite

Recherche

Archives

14 juin 2008 6 14 /06 /juin /2008 21:59
Le cerveau bayésien
par Jean-Pa Baquiast 14/06/2008

Deux articles de grande portée épistémologique ont été publiés à un mois d’intervalle par le NewScientist, dont la fécondité ne cesse de nous étonner. Ces articles s'articulent logiquement. En voici une présentation commentée rapide.

Some swans are grey

Le premier article, « Some swans are grey » de Robert Matthews (10 mai 2008, p. 44) relativise l’intérêt de la falsifiabilité proposée par Carl Popper dans « La logique de la découverte scientifique, 1934 » afin de distinguer les « vraies » hypothèses scientifiques des hypothèses présentées par les « fausses sciences » 1). Selon Popper, une théorie scientifique ne tire pas sa valeur du fait qu’elle est justifiée par un certain nombre d’observations. Elle n’a de portée que si elle laisse ouverte la possibilité qu’une expérience puisse la falsifier, autrement dit la contredire. Une théorie affirmant que pour telle ou telle raison toutes les planètes sont sphériques n’est pas démontrée par l’accumulation d’observations montrant des planètes sphériques. Elle peut par contre prétendre à la rigueur scientifique car elle laisse ouverte l’hypothèse qu’une planète puisse être cubique. Tant qu’une telle planète cubique ne sera pas observée, la théorie demeurera valide. Si on observait une planète cubique, la théorie devrait par contre être modifiée. On sait que les poppériens avaient reproché aux freudiens de se placer en dehors de la science expérimentale. « Vous nous expliquez que tous ces symptômes révèlent l’existence de l’inconscient, mais votre conception de l’inconscient est si extensive qu’elle ne permet pas d’affirmer que tel symptôme ne relève pas de l’inconscient ».

Ajoutons que les expériences destinées à prouver telle théorie ou hypothèse dépendent de l’état de l’instrumentation scientifique, lequel se perfectionne sans cesse. Il faut donc distinguer l’infalsifiabilité de principe et l’infalsifiabilité de fait. On ne dira pas qu’une théorie affirmant la sphéricité des planètes n’est pas falsifiable au prétexte que l’on ne dispose pas d’instruments astronomique permettant d’observer toutes les planètes de l’univers (infalsifiabilité de fait). Elle est falsifiable parce qu’il suffirait d’observer une planète cubique – ce que rien n’interdit en principe de faire – pour l’invalider. Si au contraire j’affirmais que les planètes ont une âme, ce qu’aucun instrument astronomique ne pourra jamais vérifier, j’énoncerais une hypothèse infalsifiable en principe.

La critique poppérienne est aujourd’hui largement utilisée par les scientifiques voulant montrer que la cosmologie n’est pas une « vraie science » 2) Selon eux, ni la théorie des cordes ni des hypothèses telles que celle des multivers ne peuvent être falsifiées, car elles ne comportent pas de prédictions pouvant être contredites par l’expérience. Ce n’est le cas ni de relativité ni de la physique quantique ni même d’hypothèses apparemment très contre intuitives comme celles relatives aux trous noirs. D’autres cosmologistes rappellent au contraire avec pertinence qu’il ne faut pas confondre infalsifiabilité de principe et infalsifiabilité de droit, comme indiqué ci-dessus. Il est n’est pas possible en effet d’affirmer qu’aucune expérience ne permettra jamais de tester les hypothèses de la théorie des cordes ou du multivers. Les astrophysiciens s’efforcent au contraire en permanence d’en imaginer.3) Quoiqu’il en soit, quel que soit le mérite du travail d’épistémologie critique fait par Popper, permettant de distinguer les « vraies sciences » des fausses sciences ou superstitions, ce travail fait actuellement l’objet, non d’une remise en question radicale, mais de tentatives d’approfondissement voire de dépassement. Aujourd’hui, beaucoup de jeunes scientifiques se plaignent de ne pas oser formuler d’hypothèses audacieuses au prétexte que selon Popper ces hypothèses ne seraient pas falsifiables. Pour eux, le développement des connaissances scientifiques ne peut se faire que sur un très large soubassement d’hypothèses faisant parfois appel à une imagination non immédiatement vérifiable. C’est un peu ce que rappelait le regretté Paul Feyerabend dans son ouvrage « Pour l’anarchisme méthodologique ». Il ne faut pas brider l’imagination. Ces chercheurs constatent en effet avec dépit qu’après quelques années, leurs hypothèses, si elles avaient été publiées, auraient été vérifiées grâce aux progrès de l’instrumentation.

Dans le même temps, les conditions dans lesquelles sont menées les vérifications expérimentales méritent de plus en plus l’examen critique. La preuve empirique n’existe pas en soi. Elle est toujours construite, notamment à partir d’une théorie implicite, sinon de véritables préjugés non scientifiques. Dans d’autres cas, on constate que des preuves expérimentales utilisées pour démontre la fausseté d’une théorie ne portent pas sur la théorie elle-même mais sur des conséquences attribuées par erreur à celle-ci. Par ailleurs, même des théories reconnues comme fausses, telle la gravitation newtonienne, peuvent encore servir de cadres de prédiction valables dans toute une série de phénomènes de la physique courante. Les scientifiques cherchent donc à trouver autre chose que le test de Popper pour garantir le caractère scientifique d’une hypothèse ou théorie intéressant un domaine nouveau. Sans le rejeter par principe, ils cherchent au moins à l’affiner.

Mais comment ? C’est là qu’intervient un raisonnement faisant appel aux probabilités, dit bayésien en l’honneur du mathématicien et statisticien britannique du 18e siècle Thomas Bayes. Dans cette approche, la « vérité » ou « plausabilité » d’une hypothèse est fonction du nombre de preuves qui jouent en sa faveur. Il ne s’agit pas nécessairement de preuves expérimentales déjà obtenues en fonction de l’état actuel des instruments, mais de probabilités de preuves, preuves susceptibles d’être obtenues dans un avenir pas trop éloigné. Le chercheur en ce cas ne cherche pas la falsifiabilité mais la plausibilité d’une hypothèse, en accumulant le plus de preuves ou probabilités de preuves en sa faveur. Plus l’hypothèse est prouvée, plus elle sera considérée comme plausible. Mais elle ne sera pas rejetée si un certain nombre d’expériences la contredisent. On pourrait dire, en forçant un peu les termes, qu’une hypothèse devient crédible dès lors qu’elle repose sur plus de 50% de preuves favorables. Pour choisir entre des théories rivales, c’est la théorie qui présente le plus fort pourcentage de résultats favorables actuels, ou la plus forte probabilité de résultats favorables futures, qui devra être élue. Il faudra donc faire un véritable pari sur elle

Pour en revenir à l’hypothèse des multivers, celle-ci peut être considérée comme scientifique en termes bayésiens, car c’est elle qui est aujourd’hui compatible avec le plus grand nombre d’observations expérimentales conduites, non à son propos, mais à partir des théories sous-jacentes, gravitation et mécanique quantique. Il s’agit donc, en l’état actuel de celles-ci, du « meilleur pari » à conseiller aux bookmakers de la cosmologie.

Essence of thought

Le second article que nous présentons et discutons dans ce texte, Essence of thought, est de Gregory T. Huang (31 mai 2008, p. 30). Il relate une direction de recherche visant à formuler par l’intermédiaire d’une équation unique simple toutes les opérations réalisées par le cerveau.

Revenons en arrière. Nous venons de voir comment les scientifiques s’efforcent actuellement de réintroduire l’imagination scientifique dans la pratique quotidienne d’élaboration des connaissances. Certes, la sanction suprême que représente l’expérience ne peut pas être refusée. Mais la capacité de formuler des hypothèses sur le monde ne doit pas être inhibée par la peur de ne pas pouvoir proposer d’expériences falsificatrices. La formulation de ces hypothèses ouvrira obligatoirement un large éventail de vérifications expérimentales, les unes susceptibles de confirmer les hypothèses, les autres de les infirmer. Le retour d’expérience permettra d’identifier celles des hypothèses disposant du plus grand nombre de preuves expérimentales favorables, voire de la plus grande probabilité d’être ultérieurement vérifiées par les expériences à venir. Ces hypothèses seront donc considérées comme présentant le modèle du monde le plus apte à comprendre le milieu dans lequel est plongé le scientifique.

Or c’est précisément de cette façon que les systèmes nerveux des animaux procèdent pour construire les représentations du monde dont ils ont besoin. Leur cerveau, ainsi que l’a bien montré Christopher Frith 4) , est bombardé en permanence de messages venant des sens. Pour les interpréter, le cerveau élabore des hypothèses relatives à la signification de ces messages, en s’appuyant sur le vaste catalogue des expériences déjà vécues par le sujet et mémorisées dans les aires adéquates du cerveau. Les humains ne se distinguent pas fondamentalement en cela des autres animaux. Si mes sens reçoivent des informations sonores et visuelles émises par un insecte se rapprochant de moi, mon cerveau compare ces informations avec celles correspondant aux « signatures » qu’il a conservées en mémoire à la suite des interactions précédentes avec des insectes. Ceci afin d’en tirer les ordres permettant d’éviter des situations désagréables ou dangereuses. Le cerveau fera une première hypothèse, en « supposant » que l’insecte est un hyménoptère piqueur et non une mouche. Il vérifiera immédiatement cette hypothèse en commandant aux organes sensoriels d’affiner leurs observations. Si l’hypothèse de l’hyménoptère est confirmé (renforcée), restera à la préciser : guêpe, abeille ou frelon ? Le cerveau procédera à des observations complémentaires. Il faudra ensuite faire des hypothèses sur la direction et la vitesse de l’objet ciblé ainsi que sur la meilleure façon d’éviter un choc frontal. Le tout en quelques centièmes de seconde. Les sous-mariniers reconnaîtront sans peine le travail que fait un asdic moderne couplé avec un ordinateur pour identifier un écho susceptible de révéler la présence d’un ennemi.

Le schéma que nous venons de décrire présente cependant un défaut. Il laisse supposer au lecteur que le cerveau se comporte en véritable chef d’orchestre capable de déclencher au choix les meilleures actions et réactions nécessaires à la survie, comme le ferait l’humain chef de quart à bord du sous-marin évoqué ci-dessus. En réalité, toutes les opérations évoquées ici se déroulent sur un mode automatique, par mise en œuvres d’algorithmes simples. Ces algorithmes eux-mêmes ne tombent pas du ciel, ils ont nécessairement résulté de millions d’années d’évolution. Mais peut-on les identifier?

La réponse n’était pas claire, jusqu’à ces derniers temps. On a certes proposé depuis longtemps l’hypothèse que le cerveau se comporte comme un système automatique de reconnaissance de formes. Il construit une première forme hypothétique à partir des signaux initialement reçus, il la compare à des formes voisines conservées en mémoire, affine si nécessaire l’analyse, puis finalement propose un diagnostic permettant ou bien de reconnaître et nommer la forme perçue ou bien de la classer comme inconnue. Le tout utilise des empilements de réseaux neuronaux du type des neurones formels s’échangeant de l’information 5) .Cependant, la complexité du cerveau est telle que, si l’on peut identifier à peu près bien les mécanismes élémentaires correspondant à ces diverses phases, une grande obscurité demeure concernant les processus neuronaux profonds intéressant notamment l’apprentissage et la prise de décision. Le cerveau accomplit de nombreuses fonctions complexes, souvent en parallèle, perception, attention, émotion, raisonnement, mémorisation, apprentissage. Il utilise un nombre considérable de cellules différentes, réparties dans de multiples aires de compétences elles-mêmes reliées par un tissu apparemment inextricable de fibres associatives. Les échanges entre tous ces acteurs obéissent-ils à des logiques chaque fois différentes ou font-elles appel à une logique commune ?

La bonne nouvelle est qu’une réponse à ces questions difficiles semble s’esquisser. Gregory T. Huang rapporte en effet, dans l’article précité du NewScientist, qu’une équipe de l’University College London (UCL), dirigée par Karl Friston 6)  a proposé une loi mathématique qui pourrait selon certains constituer la « grande théorie unifiée » du cerveau. Le neurologue français Stanislas Dehaene, professeur au Collège de France, aurait marqué son intérêt pour ce travail, qui devrait selon lui apporter des idées neuves très profondes dans les sciences cognitives 7). Les hypothèses de Karl Friston reposent sur la théorie du cerveau bayésien inspirée des idées que nous venons de résumer dans la première partie de notre article, relativement à la plausibilité des hypothèses au regard des vérifications expérimentales. Le cerveau bayésien est conçu comme une machine probabiliste qui fait constamment des prédictions sur le monde et les actualise en fonction de ce qu’il perçoit.

En 1983, le chercheur canadien Geoffrey Hinton avait suggéré que le cerveau prenait des décisions basées sur les incertitudes du monde extérieur. Ultérieurement d’autres chercheurs avaient envisagé la possibilité que le cerveau puisse représenter ses connaissances sur le monde en terme de probabilités. Une distance dans l’espace, ainsi, ne serait pas estimée par un nombre unique mais par une série de valeurs dont certaines apparaissent plus probables que les autres. L’expérimentation, c’est-à-dire les nouveaux messages reçus des sens, obligerait à modifier (actualiser) ces valeurs en temps réel. On emploie le terme de cerveau bayésien parce que Thomas Bayes avait réalisé une méthode permettant de calculer comment évolue la probabilité d’un évènement au reçu de nouvelles informations le concernant.

Le fait que le cerveau fasse en permanence des prédictions sur le mode bayésien concernant aussi bien les évènements extérieurs que les modifications de ses propres états internes n’est plus discuté aujourd’hui. Mais cela n’explique pas pourquoi le cerveau fonctionne de cette façon, ceci avec semble-t-il une très grande uniformité quelles que soient les zones cérébrales concernées. Pour expliquer cette convergence, Friston a repris l’hypothèse du cerveau bayésien en l’appliquant non seulement à la perception mais à toutes les autres fonctions du cerveau. Il montre que tout ce que fait le cerveau est conçu pour minimiser l’erreur de perception (assimilée au concept d’ « énergie libre » pour des raisons que nous ne développerons pas ici, découlant de la modélisation sur les réseaux de neurones formels). Le corps considéré comme une machine thermodynamique obligée pour survivre d’économiser son énergie a en effet intérêt à minimiser l’erreur de perception afin de réduire le nombre d’opérations nécessaires à l’affinement des messages reçus des sens et minimiser par ailleurs l’effet de surprise, toujours coûteux, lorsque l’erreur de perception est élevée. « Tout ce qui peut changer et s’adapter dans le cerveau le fera pour réduire l’erreur de perception, depuis la décharge du neurone individuel, le câblage entre ces neurones, les mouvements des yeux et les choix de la vie quotidienne ».

L’incitation à la plasticité cérébrale, grâce à laquelle le cerveau modifie ses câblages en fonction de l’expérience, en découle. Il s’agit du mécanisme de base permettant la mémorisation et l’apprentissage. Mais plus généralement, c’est l’ensemble des échanges entre les niveaux d’entrée des informations sensorielles et les différents niveaux de réponse et d’intégration des couches corticales supérieures qui obéirait à cette exigence d’économie 8). Selon Friston, l’hypothèse pourrait expliquer également la façon dont s’organisent et travaillent les neurones en charge des fonctions les plus nobles du cerveau : l’élaboration de la pensée et sans doute même celle de la conscience de soi. Les neurones miroirs qui s’activent lorsque l’on regarde un tiers exécuter un mouvement, et qui s’activent de la même façon lorsque l’on fait soi-même ce mouvement, sont en effet considérés comme jouant un rôle important dans la production de la conscience. Il serait intéressant de montrer qu’ils fonctionnent eux-aussi sur la base de processus simples visant à minimiser l’erreur de perception (perception externe et perception interne). Beaucoup des prétendus « mystères de la conscience » pourraient s’éclaircir. La conscience peut en effet être considérée comme la perception par certains neurones spécialisés des états internes du cerveau, perception organisée autour d’un modèle du Moi développé dans le cadre des interactions sociales. Nous reviendrons sur cette propriété possible du cerveau Bayésien « conscient » ultérieurement.

Si ces hypothèses étaient vérifiées par les diverses expériences en cours faisant à la fois appel à des modèles informatiques et à l’utilisation de l’imagerie cérébrale, nous disposerions d’une explication simple permettant de comprendre l’apparition et le développement progressifs des réseaux neuronaux dans la suite des espèces vivantes et ce jusqu’à l’homme. On retrouverait en effet à la base de ces constructions des principes universels d’organisation visant à économiser l’énergie. On peut identifier ces principes aussi bien dans l’anatomie et la physiologie des cellules et organes que dans les systèmes thermomécaniques du monde non biologique. Par ailleurs, de nombreuses applications, en sciences cognitives, en thérapeutique humaine et, bien sûr, en robotique autonome, pourraient être envisagées.

Notes
1) Il faudrait distinguer théorie et hypothèse. La plupart des articles destinés au grand public ne le font pas, notamment ceux du NewScientist analysés ici. Nous ne le ferons donc pas non plus. Admettons seulement que la théorie désigne le cadre général dans lequel s’inscrivent de nombreuses hypothèses et aussi de nombreuses vérifications expérimentales, dites empiriques. L’hypothèse est généralement de portée plus limité et ne s’accompagne pas toujours d’une formulation théorique développée. Ainsi, au sein de la théorie de la relativité, certains chercheurs émettent l’hypothèse que la gravité pourrait ne pas s’exercer de la même façon dans tous les points de l’espace-temps. Si cette hypothèse était démontrée expérimentalement, elle n’obligerait pas à abandonner le cadre théorique tout entier de la relativité, mais à le modifier sur certains points. Rappelons par ailleurs qu’aucune théorie scientifique ne pouvant se prétendre définitive, il est légitime de la présenter comme hypothétique. Mais les théories confirmées par toutes les expérimentations inspirées par elles présentent plus de solidité que les hypothèses théoriques reposant sur un petit nombre d’observations, elles-mêmes parfois conduites dans des conditions discutables.
2) Peter Woit, Not even wrong, traduit par Michel Cassé, Même pas fausse, Dunod 2007
3) Voir notre entretien avec Michel Cassé. http://www.automatesintelligents.com/interviews/2007/oct/casse.html
4) Professeur Chris Frith. Voir notre recension de son livre Making up the mind
How the Brain Creates our Mental World
http://www.automatesintelligents.com/biblionet/2007/juil/frith.html
5) Sur les neurones formels, voir
http ://www.chimique.usherbrooke.ca/cours/gch445/neurones-intro.html
6) Professeur Karl Friston http://www.fil.ion.ucl.ac.uk/Friston/
NB: Le Wellcome Trust Centre for Neuroimaging compte le professeur Chris Frith comme chercheur émérite.
7) Voir notre entretien avec Stanislas Dehaene http://www.automatesintelligents.com/interviews/2008/dehaene.html
8) Rappelons que dans ce schéma, un double circuit d'information s'organise: celui des informations reçues par les sens, informations entrantes ou bottom up, et celui des informations émises par le cortex qui constituent les hypothèses auquel celui-ci procède pour essayer d'identifier les données entrées en les comparant à des données précédemment mémorisées. Elles peuvent être dites descendantes ou top down. Ces données commandent en général des mouvements du corps permettant d'affiner les perceptions sensorielles. L'erreur de perception résulte de l'écart entre les résultats produits par ces deux types de circuit. C'est elle que, pour des raisons d'économie, le système global s'efforce de minimiser. Les organismes y réussissant le mieux ont le plus de chances de survie.

Partager cet article
Repost0

commentaires

H
The Bayesian brain. How it minimizes its misinterpretation is a clear and proper knowledge about the brain activities and the news for the common people. All I can say is that the sharing is great and I have saved the page for more of such updates. Good work.
Répondre
M
Thank You
G
Bonjour. merci de votre commentaire. Je ne suis pas sûr que les 2 soeitn incompatibles. Il me semble que les deux approches ne se situent aps au même niveau. Il faudrait demander à Changeux ce qu'il en pense...
Répondre
F
Il me semble que les graphes de J.-P. Changeux sont bien plus intéressants pour comprendre comment les cerveaux sont imprimés, graphés, par les usages appris de l'espèce ou tribu, que ce sont ces graphes (mémoire) qui 'instituent' le cerveau dans sa singularité, qui 'pensent', 'choisissent'. C'est sans doute une toute autre philosophie.
Répondre

Articles RÉCents

Liens