Overblog Suivre ce blog
Administration Créer mon blog

Texte libre


Pourquoi ce blog ?

Cet ensemble de textes a été conçu à la demande de lecteurs de la revue en ligne Automates-Intelligents souhaitant disposer de quelques repères pour mieux appréhender le domaine de ce que l’on nomme de plus en plus souvent les "sciences de la complexité"... lire la suite

Recherche

4 mars 2011 5 04 /03 /mars /2011 16:48

Pour un printemps des sciences politiques
par Jean-Paul Baquiast et Christophe Jacquemin - 04/03//2011


L'Institut de France, siège de l'Académie des sciences morales et politiques


Le printemps des peuples arabes, auquel tout le monde s'intéresse aujourd'hui, montre aussi rétrospectivement le peu d'échos qu'avaient eus les rares chercheurs en sciences politiques et sciences humaines qui l'avaient pressenti. Il en est de même de deux autres phénomènes majeurs qui vont déterminer notre avenir: le déclin de la domination américaine et l'affirmation de ce que Erik Izraëlewicz nomme l' « Arrogance chinoise » dont nous discuterons dans un prochain article. Dans ces trois domaines, comme dans bien d'autres de moindre importance apparente, les opinions publiques et plus grave, les milieux politiques vivent encore d'idées vieilles de plusieurs décennies, de préjugés (certitudes rassurantes ou peurs) empêchant d'ouvrir les yeux et finalement, osons le mot, d'une cécité scientifique qui contraste étrangement avec la relative curiosité portée par ailleurs aux sciences physiques et naturelles.


Nous ne voulons pas dire que les sciences politiques et humaines (histoire, anthropologie...), non plus que les sciences économiques et la géopolitique, cette dernière ayant l'ambition de réunir toutes les autres dans une vision prenant en compte les populations et les territoires, avaient tous les outils pour prévoir les bouleversements que nous constatons aujourd'hui. Elles sont bien en peine d'ailleurs de proposer des scénarios d'avenir solides. Elles fournissent cependant les bases méthodologiques qui éviteraient aux nombreux « experts » dont s'entourent les chefs d'Etat et aux dirigeants eux-mêmes, de proférer les inepties dont ils sont coutumiers – inepties qui ne sont pas inoffensives car elles entraînent dans leurs sillages les comportements de millions d'acteurs économiques et politiques.


Est-ce à dire que ces sciences, en leur état actuel, dans les pays francophones comme dans les pays de langue anglaise, sont assez développées pour qu'il suffise de s'y référer et de mieux les diffuser pour comprendre le monde et son évolution? Les sciences humaines, nous l'avons plusieurs fois remarqué en étudiant ici la Méthode de Conceptualisation Relativisée proposée pour les sciences physiques par Mioara Mugur Schächter, souffrent bien plus encore que la physique traditionnelle de l'abus du réalisme. Nous voulons dire par là qu'elles s'imaginent (ou font semblant de croire) qu'elles décrivent des entités existant en dehors de l'observateur, existant dans le monde réel, pour ne pas dire dans le monde des essences platoniciennes. Il suffirait à l'observateur, pour faire un travail scientifique, c'est-à-dire objectif, une fois qu'il a identifié un objet ou thème d'étude, de s'entourer de toutes les précautions utiles pour en donner une description universellement acceptable.


Le propre des sciences humaines consiste à observer des « faits » particulièrement difficiles à spécifier et à quantifier: par exemple identifier et mesurer les types et niveaux d'activités économiques dans les pays du bassin méditerranéen, à l'intérieur du thème plus général de l'emploi dans ces pays. Ce ne sera qu'à partir de ce premier travail de sélection que les sciences politiques (géopolitique, économie, urbanisme, science des populations..) pourront proposer des modèles utilisables à titre d'hypothèses par les gouvernements et les entreprises des pays considérés. Mais on pose rarement la question de la légitimité de celui qui choisit les thèmes et les faits à mesurer. Il ne s'agit pas pourtant d'une démarche innocente.


Dans l'exemple proposé ici, la question des activités économiques autour de la Méditerranée est aujourd'hui de grande importance, car elle conditionne la réponse qu'il faudra envisager pour que les pays du Sud en cours de sortie de dictature puissent se doter en propre de nouvelles activités économiques. Celles ci devraient être suffisamment durables pour leur permettre d'échapper à la pauvreté génératrice de flux migratoires déstabilisant mais aussi à l'emprise croissante des dominations étrangères, occidentales ou asiatiques, visant à les priver de leurs ressources énergétiques ou naturelles. On conçoit que les enjeux soient très importants.


Or il est bien évident que définir les « faits » à observer comme en amont les problématiques générales dans lesquelles les étudier, dépendra très largement des intérêts de ceux qui financent les études et emploient les scientifiques chargés de les mener à bien. Les nombreux Think tanks atlantiques, dotés de beaucoup d'argent et recrutant de ce fait force laboratoires scientifiques, ne pourront pas avoir de la définition du problème ni des faits à observer le même point de vue que des universitaires chinois ou que des universitaires - encore rares malheureusement – provenant des pays du Maghreb ou d'Egypte en voie de sortie de la dictature.


L'idéal serait évidemment que sur ces questions nécessairement controversées s''établissent entre chercheurs, à travers les réseaux modernes d'échange, un minimum de dialogue et de coopération, mais ceci ne se fera pas immédiatement. Il conviendra donc, pour clarifier les débats, que chaque scientifique soit capable de répondre à une question simple: « Qui es tu, toi qui prétend parler au nom de la science? ».


A ce moment, la méthode suivie par les physiciens quantiques s'imposera d'emblée. Rappelons qu'elle refuse de décrire tel état physique en soi, par exemple un électron. Elle lie de façon inséparable l'état observé, l'observateur et l'instrument servant à l'observation. Ainsi nul ne peut oublier que la « construction » ainsi réalisée est relative à tel l'observateur, utilisant tels instruments et ce dans telles circonstances. Cette démarche s'imposera tout autant dans les nouvelles sciences humaines. Ceux des économistes occidentaux ou asiatiques animés d'un esprit productiviste excessif pourront se faire ainsi répondre par leurs collègues de pays émergents que ceux-ci veulent prendre en compte des objectifs intégrant la protection à long terme des agricultures traditionnelles.


L'Académie sur le web


Evoquons ici un autre point. Nous pensons qu'il ne faudrait pas s'en tenir pour faire progresser les consensus scientifiques à un académisme trop respectueux des références universitaires reconnues. Curieusement, quand on regarde, même superficiellement comme nous le faisons ici, la façon dont se forment les opinions, on constate que le web pourrait servir de modèle à la généralisation d'une démarche scientifique empirique qui serait bien utile pour interpréter l'évolution du monde telle qu'elle apparaît. Aujourd'hui, de nombreux blogs politiques se situant en dehors de la pensée officielle, et de ce fait interdits d'accès au monde médiatique, procèdent à ce qui est, répétons-le, l'enfance de l'art du travail scientifique: faire des observations ou émettre des hypothèses dérangeantes, que chacun peut s'il le souhaite vérifier ou démentir. Dans les multiples réactions d'internautes qui sont désormais le complément obligé de ces blogs, se trouvent, noyées dans certaines ignorances ou à-peu-près, beaucoup d'éléments contribuant à la vision polycentrique nécessaire à toute science en construction.


Pour générer le printemps des sciences humaines et politiques dont nous avons besoin, les citoyens devraient donc se persuader – s'ils ne le sent déjà - que ces sciences ne peuvent être le monopole de personnages diplômés confisquant les reconnaissances sociales et la parole. L'expérience montre malheureusement que ces personnages ne sont pas seulement coupables de dogmatisme. Ils sont bien trop souvent sollicités et rémunérés afin de se mettre au service d'intérêts politiques, économiques, diplomatiques dont ils deviennent les faire-valoir. Les sciences économiques en sont infestées, mais elles ne sont pas les seules. Il en est de même des journalistes spécialisés qui se prétendent experts en économie ou en géostratégie. Quand on connaît les cercles oligarchiques qu'ils fréquentent, on a du mal à leur prêter l'objectivité minimum qui leur serait nécessaire pour donner des leçons de science politique aux populations.


Finalement, ce sera sans doute dans l'anonymat et le fouillis du web que l'on trouvera à court terme les éléments dont les citoyens auraient besoin pour devenir à leur tour des experts en sciences politiques. En cherchant un peu, on y découvre de nombreux exposés didactiques qui éclairent les questions les plus difficiles. Rien que dans Wikipedia, le nombre des informations mais aussi des bases méthodologiques nécessaires à la construction d'un regard averti est quasi inépuisable. On objectera qu'il faut des loisirs et un minimum de recul pour tirer parti de ces sources.


Mais nous sommes persuadés que les jeunes diplômés qui ont été les acteurs des phases révolutionnaires de ces dernières semaines et qui seront aussi espérons-le ceux des épisodes à venir, ont déjà largement puisé dans ces ressources. Ils ont compris qu'il leur appartenait désormais, à eux-aussi, de contribuer à l'enrichissement de ces références et à leur renouvellement, pour le bien commun.

Repost 0
21 février 2011 1 21 /02 /février /2011 11:38


Jean-Paul Baquiast 20/02/2011

 

Christophe Jacquemin présentera prochainement sur le site Automates Intelligents  une recension de ce livre très remarquable. Je voudrais cependant sans attendre faire valoir deux points.


Une révolution


Le premier est que ce petit livre, sous une apparence discrète, concrétise une véritable révolution, celle dont aurait selon nous le plus grand besoin la vie intellectuelle française. Il s'agirait en fait d'une double révolution, concernant à la fois la recherche scientifique et la philosophie des sciences. L'ouvrage réunit en effet deux auteurs qui, dans la tradition universitaire de notre pays, restée encore très vivace, n'avaient aucune chance de se rencontrer. Il s'agit d'un biologiste et philosophe de la vie animale, Georges Chapouthier, et d'un spécialiste de l'intelligence artificielle et de la robotique évolutionnaire, Frédéric Kaplan. Tous les deux il est vrai avaient un point commun, outre la volonté de s'ouvrir à leurs travaux respectifs. Ils ont toujours voulu réfléchir à la façon dont, grâce aux références de leurs disciplines, ils pouvaient et pourront dans l'avenir définir l'humain, en dépassant les préjugés humanistes et religieux.


Il n'y a là rien que d'élémentaire, mon cher Watson, dira-t-on. Qui ne fait cela aujourd'hui? Notre petite expérience de l'édition scientifique et philosophique nous pousserait à répondre qu'au contraire, personne ne le fait, ou alors de façon si confidentielle que ce n'est guère audible. Il ne s'agit pas, on l'a compris, de réfléchir à l'humain en relation avec ce que l'on sait (ou que l'on ne sait pas) de l'animal. Ceci, les philosophes le font depuis des millénaires. Il ne s'agit pas non plus de réfléchir à l'humain en relation avec ses machines et plus récemment avec ses robots. Beaucoup de personnes s'en occupent aujourd'hui, soit en termes journalistiques soit avec compétence. Il s'agit de réfléchir aux trois branches du triangle en préservant, comme diraient les physiciens quantiques, leur inséparabilité. De plus, il s'agit d'y réfléchir dans tous les domaines, ceux où l'animal excelle, ceux où la machine excelle et ceux dont la philosophie et la religion prétendent donner à l'homme le monopole, l'esprit, l'intelligence, la morale et même ce que les auteurs ne veulent pas s'interdire d'aborder, l'âme.


Georges Chapouthier et Frédéric Kaplan. ne vont pas jusqu'à dire que, dans l'état actuel des connaissances sur l'animal, l'humain et les systèmes artificiels, toutes les différences observées ou prétendues entre ces trois grandes classes d'organisations devraient être mises de côté, afin de proposer une définition commune de ce que signifie le fait d'être vivant, d'être intelligent et d'être conscient. Ils restent plus prudents.


Cela ne les protégera sans doute pas cependant de procès, au moins intellectuel. Dans un temps futur, l'intolérance progressant, ils seront peut-être traduits devant des tribunaux civils ou religieux pour diffamation à l'égard de l'humanité ou de la divinité. Certes leurs avocats pourraient plaider: « Mais non, monsieur le président, vous voyez bien que nos clients, au delà des convergences, prennent bien soin de noter les différences, dont certaines seraient selon eux irréductibles ». Mais il n'est pas certain que la Cour pardonnerait le fait de passer à la même moulinette analytique des entités si « ontologiquement » dissemblables, l'animal, l'homme et la machine.


Pour nous qui sommes plus ouverts à la nécessité de traverser les frontières, c'est au contraire cette moulinette analytique commune qui fait toute la valeur et la portée du travail de nos auteurs. Ce sera pensons-nous dans la ligne de cette approche méthodologique que les recherches ultérieures devront se placer.


Des processus coactivés


Pour illustrer ce dernier propos, nous serions tentés de nous placer par la pensée dans la situation d'un savant extraterrestre examinant l'histoire de la vie sur Terre depuis les quelques dizaines de millions d'années à partir desquels l'évolution a échappé aux rythmes lents qui la caractérisait jusque là, catastrophes naturelles mises à part. Une toute petite modification (nous simplifions) au sein d'un système biologique parmi des millions d'autres s'est produite en Afrique, du temps d ' Orrorin tugennensis et de Sahelanthropus tchadensis (Toumaï, reconstitué ci-dessus). Pour une raison encore inconnue, peut-être une mutation génétique, ces deux quadrupèdes seraient devenus bipèdes. Cette posture, pour diverses raisons rapidement évoquées par Georges Chapouthier, aurait donné naissance à des cerveaux qui dès cette époque étaient sans doute déjà les objets les plus complexes de l'univers connu.


Sont alors dès ce moment apparus ce que nous appelons ici des processus coactivés, c'est-à-dire des processus qui, bien que se déroulant selon des logiques indépendantes, s'appuient et se renforcent réciproquement. Chez les australopithèques, vers -3 ou -2 millions d'années, deux sortes de processus coactivés se sont conjugués, les uns liés à l'évolution biologique de type animal (nous simplifions toujours) et les autres liés à la mise en oeuvre des capacités computationnelles permises par les cerveaux augmentés de ces entités. Une nouvelle explosion évolutive en a découlé, se traduisant notamment par l'ajout aux ressources corporelles et mentales des australopithèques et de leurs descendants les capacités évolutionnaires et transformationnelles des objets du monde matériel systématiquement utilisés par eux comme outils puis comme machines.


Une nouvelle série de processus coactivés en a découlé, qui en moins d'un million d'années a transformé le monde biologique et physique. Il s'est agi de ce que nous avons nommé dans notre propre essai « Le paradoxe du Sapiens » (Jean-Paul Bayol, 2010) les systèmes bio-anthropotechniques. Nous faisons l'hypothèse que sous ce terme encore peu usuel se coactivent, dans une symbiose de moins en moins « séparable » (pour reprendre le mot emprunté à la physique évoqué plus haut), des processus biologique, des processus anthropologiques et des processus technologiques.


Aujourd'hui, pour des raisons d'ailleurs difficiles à expliquer, sinon à décrire, les processus liés à la mécanisation, à l'automation, à l'intelligence artificielle générale (GIA) se développent beaucoup plus vite que les autres. Ils imposent aux autres leurs rythmes et leurs logiques, sans cependant les faire complètement disparaître. Nul ne peut évidemment dire ce qui résultera de la coévolution cahotique de ces milliers et millions de processus. Quoiqu'il en soit, pourrait conclure notre savant extraterrestre, dans les quelques décennies à venir, la vie sur Terre et l'organisation de l'anthropocène seront complètement modifiées. Nous avons suggéré pour notre part d'employer le terme d'anthropotechnocène pour décrire le nouvel état de la planète qui est en train d'advenir.


On voit que pour raisonner de cette façon, le savant extraterrestre, s'inspirant dans une certaine mesure de la pensée chinoise traditionnelle, ne devrait plus s'attacher à décrire des « objets » ayant une réalité propre: des animaux, des humains, des machines. Il devra identifier des processus et tâche bien plus difficile encore, leurs réseaux de liaisons et de coactivations.


Si ce savant était très compétent (ayant lu, entre autres, le livre de Georges Chapouthier et Frédéric Kaplan), également doté de bons outils d'observation, il pourrait peut-être alors dresser une carte analogue à celle de l'Human Cognome Project, qui cherche à modéliser une (infime) partie des interactions synaptiques cérébrales. Ce serait la carte de l'Etat de la planète à un moment donné, découlant des interactions et coactivations entre processus biologiques, anthropologiques et technologiques. Une petite projection dans le temps montrerait sans doute que, sauf accident, les processus co-activés les plus co-activants, si l'on peut dire, seront ceux intégrant les technologies de l'IA et de la robotique autonome en réseau.


Celles-ci seront sans doute partout, sous des formes aujourd'hui inimaginables, maillant étroitement la planète, jusqu'à peut-être l'étouffer.

 

Repost 0
17 février 2011 4 17 /02 /février /2011 21:59

Le match Watson/humains dans le jeu Jeopardy.
Ce que l'on pourrait en conclure concernant l'Intelligence artificielle.
Jean-Paul Baquiast - 17/02/2011


Dans la présentation que nous faisons du livre de Martin Ford, The Lights in the Tunnel http://www.automatesintelligents.com/biblionet/2011/jan/martinford.html, nous insistons sur l'argument principal de ce livre : une grande majorité des travailleurs actuels, quels que soient leurs professions et leurs grades, seront remplacés dans les prochaines décennies par des applications de l'Intelligence artificielle, des automatismes et de la robotique. Contrairement à ce que l'on croit, les plus menacés seront ceux qui font aujourd'hui appel aux formes élaborées de la compréhension du langage naturel et du jugement, en s'appuyant sur des quantités considérables de connaissances accumulées aussi bien dans leurs cerveaux que dans les sources de documentation qu'ils utilisent.


Dans un premier temps, on cite en exemple les documentalistes qui répondent, notamment par téléphone ou en ligne, aux questions posées par des clients. Une bonne partie des centres serveurs qui avaient été créés ces dernières années dans des pays à bas salaires sont en train de disparaître, du fait du relais pris par des systèmes d'intelligence artificielle, fonctionnant sur le mode du système-expert. Mais la contagion s'étendra vite à de nombreuses professions ou l'expertise repose en grande partie sur la consultation d'informations mémorisées, fussent-elles complexes: médecins, avocats, enseignants.


Aujourd'hui, chacun peut en faire l'expérience en consultant les bases de données immenses, en nombre et en contenus, qui constituent la puissance cognitive d'entreprises à moteurs de recherche telles que Google. Des algorithmes de plus en plus efficaces permettent au moteur de comprendre rapidement le sens des questions posées et d'offrir les réponses statistiquement les plus appropriées, même si ces questions sont ambiguës ou partielles. Le moteur n'invente évidemment rien de nouveau ce faisant. Il s'appuie sur les références qui ont été accumulées sur des centaines de serveurs répartis, qu'il peut consulter en quelques dixièmes de seconde. Les réponses mentionnent en premier lieu les sites ou données les plus consultées.

On peut le constater à propos de ce que les chercheurs en Intelligence artificielle ont appelé le paradoxe Paris Hilton. Si l'on tape ce terme sur Google, on obtient une dizaine de réponses concernant la star (photo). Il n'est fait mention de l'hôtel Hilton à Paris qu'au 12e ou 15e rang. Ceci tient au fait que les questions sont principalement posées par des Américains connaissant la star et ne s'intéressant qu'épisodiquement à l'hôtel parisien. Si cependant un processus de recherche plus performant était utilisé par Google ou par un autre système de question-réponse professionnel, il aurait pu déduire d'un certain nombre de connaissances plus subtiles accumulées à propos du sujet posant la question que c'était l'adresse de l'hôtel que ce dernier cherchait.


Ce sont de telles performances que prétendent accomplir les responsables du mega système-expert géré par l'ensemble de super-ordinateurs IBM baptisé Watson, en honneur du fondateur de la firme. L'actualité s'est beaucoup intéressée au match qui vient d'opposer ce système aux gagnants d'un jeu intitulé Jeopardy, très populaire aux Etats-Unis. Après plusieurs épisodes suivis de près par les médias (fortement orchestrés par les relations publiques d'IBM), Watson vient de l'emporter sur ses concurrents humains. Il s'agissait de faire face, comme nul ne l'ignore désormais, à des questions lourdes d'ambiguïtés, avec la meilleure pertinence et dans les meilleurs délais.

Pour préparer Watson à l'épreuve, les ingénieurs d'IBM ont entré dans le système, pendant des semaines (des mois) des données de toutes sortes susceptibles de répondre avec le plus de pertinence et le plus de rapidité possibles aux types de questions posées par les humains dans le jeu Jeopardy.


Progrès apportés par Watson


C'est sur la base de ces informations que s'applique la technologie de question-réponse développée par IBM. Elle ne paraît pas très différente de celle utilisée par les systèmes IBM joueurs d'échec. Face à une occurrence nouvelle imposée par le partenaire humain, l'ordinateur recherche, parmi les milliers ou centaines de milliers de réponses possibles qu'il a mémorisées, celle qui paraît la plus adaptée.


Les performances obtenues sont impressionnantes. De plus les domaines intéressés pourront être étendus indéfiniment, en fonction des capacités de mémorisation du système et de la variété des expertises qui seront rassemblées. IBM est donc légitime à prétendre que Watson ou ses successeurs pourront progressivement s'investir dans tous les champs du savoir, à condition encore une fois que les actuels détenteurs des compétences acceptent de les charger dans le système. IBM insiste évidemment, PR obligeant, sur le fait que ces experts ne seront pas dépossédés de leur rôle social. Ils seront seulement sollicités à un niveau supérieur, leur permettant d'appliquer les ressources de leurs cerveaux à des questions non triviales.

Ceux qui ont connu le début de l'utilisation des systèmes-experts retrouveront les inquiétudes ressentis par les experts de l'époque, face à l'éventualité de se voir remplacer par de tels systèmes dans un certain nombre de professions supposant, comme par exemple la médecine, la formulation de diagnostics à partir de milliers de données précédemment mémorisées par la profession. En fait, à l'époque, les craintes des professionnels les plus avertis se sont apaisées, compte tenu des faibles performances des « moteurs d'inférence » utilisés par les systèmes experts. Ceux-ci ne se sont généralisés que dans les systèmes où le champ des questions-réponses restait limité (comme dans les annuaires téléphoniques en ligne) ou dans ceux supportant une grande approximation, que l'utilisateur peut corriger lui-même. C'est le cas des moteurs de recherche modernes, Google ou Yahoo.


Il est indéniable qu'en ce qui concerne les performances, Watson se rapproche beaucoup plus de celles déployées par les humains, y compris dans le langage courant. Il peut avec ce qui semble être une grande aisance comprendre des questions posées en langage naturel, c'est-à-dire sans l'obligation de respecter des formalismes permettant au système de ne pas s'égarer dans des voies adjacentes inutiles. Il peut fournir des réponses faisant appel à diverses sortes de données non structurées, documents ou discours. Il met en oeuvre une grande variété de méthodes d'analyses permettant d'évaluer la façon dont les réponses qu'il propose répondent aux questions. Il fait tout ceci, répétons-le, à grande vitesse, ce qui lui permet de satisfaire à l'une des contraintes du jeu, actionner une sonnerie annonçant la réponse avant le partenaire humain.

Une forme avancée d'Intelligence augmentée

On peut donc considérer que Watson est une forme non pas d'Intelligence artificielle (Artificial Intelligence) mais d'Intelligence augmentée (Intelligence Augmentation). Dans le premier cas, l'Intelligence artificielle incarne l'ambition de simuler le fonctionnement intelligent du cerveau humain incorporé, y compris dans des tâches comme l'imagination ou l'invention (poser des questions plutôt que répondre à des questions). Dans le second cas, l 'Intelligence augmentée s'efforce de rassembler et confronter les connaissances de nombreux esprits distingués dans leurs disciplines.


Même si elle permet, outre le recueil d'un nombre illimité de connaissances, la mise en oeuvre de capacités d'inférence propres voire supérieure à celles de l'esprit humain, l'Intelligence augmentée telle que celle de Watson semble intrinsèquement incapable de répondre aux questions bien plus complexe que se pose ou se posera l'Intelligence artificielle.

Reste à savoir si Watson nous éclaire en quoi que ce soit sur le fonctionnement effectif des cerveaux humains, y compris de ceux manifestement très « robotisés » des compétiteurs attirés par le jeu Jeopardy. Nous disons robotisés en ce sens que ces humains, comme tous ceux participant à ces sortes de « quizz », quelles que soient leurs grandes qualités en termes de mémorisation ou d'association, sont sans doute loin de pouvoir aborder avec beaucoup de valeur ajoutée les grandes questions que se pose la science, la philosophie ou la création artistique. Ceci étant, ils font l'admiration justifiée de leurs contemporains par l'étendue de leurs connaissances et leur alacrité intellectuelle. Or comment fonctionne leur cerveau ? Watson peut-il en quoi que ce soit nous éclairer à cet égard ?

On peut en douter. Les cerveaux de ces humains ont enregistré un grand nombre de données, qu'ils peuvent restituer sur demande. Mais les bases neurales de leurs systèmes de mise en mémoire, d'association, de recherche et de restitution sont sans doute bien plus complexes que ne le sont les mémoires informatiques de Watson. Ces dernières ressemblent, quoi qu'en disent les ingénieurs d'IBM, à des bibliothèques accessibles par des catalogues plus ou moins limités.


On ne voit pas comment les mémoires informatiques de Watson, même mises en oeuvre par des algorithmes complexes dont IBM conserve le secret, pourraient intégrer les innombrables processus associatifs, révélés notamment par l'Imagerie fonctionnelle, s'établissant entre aires cérébrales multiples, elles-mêmes en relation avec un grand nombre de réseaux neuronaux intéressant la mémoire tout entière d'un corps en situation.


Ce sont ces associations hors de portée des ordinateurs actuels, qui entrent en jeu pour répondre aux questions posées par Jeopardy. Certes elles prennent plus de temps et peuvent fournir de mauvaises réponses, contrairement à Watson. Ce qui fait que l'humain est battu dans le jeu tel qu'il est organisé. Mais cela ne veut pas dire que Watson, intrisèquement, met en oeuvre des processus plus riches que ceux de l'humain. A plus forte raison, on ne voit pas comment Watson pourrait effectivement imaginer et créer de façon pertinente, c'est-à-dire pour faire face à des questions originales dont il n'aurait pas déjà mémorisé les grandes catégories de réponse.


Le lecteur objectera que les meilleurs systèmes d'Intelligence artificielle ou de robotique évolutioonnaire, à ce jour, ne se montrent guère plus convaincants. Ils peinent à simuler l'intelligence créative. Ils n'éclairent guère non plus la façon sans doute spécifique dont le cerveau humain se comporte lorsqu'il fait montre de ce que nous appelons l'intelligence, la conscience de soi et la créativité.


Nous répondrons à cette objection justifiée que rien n'interdit qu'à l'avenir les chercheurs en Intelligence artificielle et en robotique améliorent les capacités d'invention de leurs systèmes et permettent ce faisant, avec l'appui d'autres disciplines, notamment les neurosciences observationnelles, de mieux comprendre le fonctionnement du cerveau. Mais il faudra pour cela faire appel à une véritable inventivité, et non à la « force brute » déployée par les grands calculateurs. C'est une ambition de cette ampleur qui anime le projet évoqué sur notre site  par Alain Cardon (voir http://www.automatesintelligents.com/edito/2011/fev/edito.html).


IBM dans ce domaine semble céder à la même illusion que nous avions signalée en évoquant son projet Blue Brain (http://www.automatesintelligents.com/echanges/2011/jan/hbsp.html). Ce ne sera pas en reconstituant avec la force brute de millions de composants informatiques une mini-colonne de cortex que l'on pourra obtenir les performances d'un cortex, fut-ce celui d'un rat. De même les Watson et super-systèmes experts à venir auront beau être chargés jusqu'à étouffer de millions de connaissances, ils ne pourront jamais en faire un usage aussi intelligent que le ferait un rat confronté à la nécessité de sortir d'un labyrinthe.


Pour en savoir plus
http://www-943.ibm.com/innovation/us/watson/
http://www.research.ibm.com/deepqa/deepqa.shtml

Repost 0
30 janvier 2011 7 30 /01 /janvier /2011 19:21



On  rappelera que des intérêts stratégiques majeurs s'attachent à la simulation du cerveau humain et aux applications en découlant. Les Etats Unis y consacrent des sommes et des effectifs importants

bluebrain2.jpg

 

 

Le projet Blue Brain a été initialisé il y a plusieurs années dans le cadre d'une collaboration entre l'Ecole polytechnique fédérale de Lausanne et la firme IBM. Aujourd'hui la revue Sciences et Avenir, dans son numéro 768 de février 2011, consacre un Dossier à ce projet et ses perspectives, sous le titre peut-être un peu dithyrambique de « L'incroyable défi du projet Blue Brain ». Essayons ici de faire le point sur la question et ses implications.

 

 

Nous avions mentionné ce projet dès ses débuts en 2005 tout en rappelant les réserves suscitées non par le projet lui-même, mais par les conclusions que ses promoteurs espéraient en tirer quant à la connaissance du fonctionnement du cerveau biologique en situation. Comment, concrètement, une analyse bottom up limitée à une part infime de l'anatomie du cerveau pouvait-elle rendre compte du fonctionnement global d'une « machine » comprenant 100 milliards de neurones et un nombre infiniment plus grand de synapses et donc de connexions potentielles?

 

Comment par ailleurs le faire en ne tenant pas compte des interactions du cerveau avec le reste du corps, au plan de l'organisme global, et en ne tenant pas compte des interactions de cet organisme avec le reste du monde, au plan de la société et de sa culture globale ?

 

 

Bien sûr, on ne peut pas prétendre tenir compte de tous les facteurs en même temps. Cependant, ces diverses interactions imposent une adaptation (plasticité) tout à fait déterminante dans le fonctionnement et par conséquent dans les connexions et l'architecture d'un cerveau, fut-il d'un rat ou d'un humain. Or ses conséquences ne peuvent pas apparaître dans le cadre d'un examen anatomique et d'une simulation fonctionnelle limités comme c'est le cas à une infime portion de la matière grise, c'est-à-dire pour le moment à quelques millimètres cubes. En d'autres terme, nous serions avec Blue Brain confrontés à une approche réductionniste qui, bien qu'utile en elle-même, ne répondrait pas aux exigences de l'approche holiste qui devrait être conduite en parallèle 1)

 

 

Aujourd'hui les promoteurs du projet Blue Brain visent à le prolonger dans un projet élargie étendu à d'autres partenaires, le Human Brain Simulation Project (HBSB) et proposé au financement de la Commission européenne. Voyons d'abord l'état actuel du projet Blue Brain, avant de jeter un coup d'oeil nécessairment sommaire sur des projets parallèles ou concurrents.

 

 

Blue Brain. Etat des lieux


 

On résumera ici les éléments présentés par le dossier de Sciences et Avenir, qu'il conviendra de compléter par les informations disponibles sur le web. On se référera au bref encadré valant présentation du Human Brain Simulation Project (HBSP) publié par Sciences et Avenir. Ce projet rassemblerait autour de Blue Brain une centaine de laboratoires répartis dans le monde entier. Admettons le chiffre, bien que ce nombre élevé ne garantisse pas que tous les partenaires apportent une réelle valeur ajoutée. Le prestige d'IBM et l'espoir de participer aux financements doit aussi jouer un rôle.

 

 

L'initiateur du projet est Henri Markram, fondateur du Brain and Mind Institute à l'Ecole Polytechnique fédérale de Lausanne. L'institut vise à mieux comprendre les fonctions du cerveau sain ou malade en associant différentes méthodes d'analyse du comportement des neurones, y compris la simulation sur ordinateur. Le HBSP a déposé une demande de financement de 100 millions d'euros sur 10 ans auprès du domaine FET de la commission européenne, Future and Emerging Technologies. Ce domaine est un élément essentiel du programme Cordis de l'Union européenne consacré au financement de la recherche scientifique et technologique communautaire. A ce budget déjà considérable s'ajouteraient des financements provenant de la Suisse et d'un certain nombre d'Etats européens.

 

 

Le projet HBSP est ambitieux. Dans le cadre d'un objectif très général et relativement banal, la compréhension et la simulation du cerveau humain, des gènes au comportement, il s'intéresse à la réalisation de nouveaux calculateurs imitant le cerveau, sur le modèle des réseaux de neurones, ou à l'implémentation dans des robots de modules inspirés du cerveau (neurorobotique). Il dispose déjà, comme nous l'avons indiqué, via l'Ecole de Lausanne, d'importantes ressources informatiques, notamment le super-ordinateur Blue Gene d'IBM. La version acquise en 2005, Blue Gene/L vient d'être augmentée en Blue Gene/P. Cette machine comporte 16.000 microprocesseurs et développe une puissance de 53.5 teraflops. Elle n'occupe cependant que le 173 rang dans le classement mondial des plus gros calculateurs.

 

 

Jusqu'à ce jour, le projet HBSP dans sa version Blue Gene s'est focalisé sur la modélisation informatique d'une mini-colonne de cortex de rat. L'ambition paraît modeste, mais il faut rappeler que le cortex, siège de l'essentiel des fonctions neurologiques élaborées, sensorielles, motrices et cognitives, est constitué, chez l'homme et chez le rat, voisin de l'homme à cet égard, d'un empilement de 6 couches de neurones présentant des caractères différents selon les couches. Ces neurones entretiennent des connexions de type horizontal avec des neurones voisins ou éloignés dans le cerveau. Mais ils s'organisent aussi verticalement en unités fonctionnelles appelées mini-colonnes ou colonnes fonctionnelles. Celles-ci prennent la forme de colonnes verticales traversant les couches horizontales du cortex. Elles regroupent environ 10.000 neurones pour un volume de matière grise total ne dépassant pas 2mm3. Les neurones sont reliés entre eux de façon arborescente par un grand nombre de synapses, quelques milliers par neurone. Ceci dans le faible volume d'une mini-colonne représente un réseau extrêmement dense de liens possibles.

Par ailleurs, les observations portant sur le cerveau entier, faites depuis longtemps par divers procédés dont depuis quelques années l'imagerie fonctionnelle ont montré que le cerveau, dès la naissance, à la suite d'une programmation génétique souvent spécifique à l'espèce, s'organise en aires spécialisées, dédiées au départ à telle ou telle fonction, spécialisations susceptibles de se préciser ou d'évoluer au cours de la croissance du sujet. Comment cette spécialisation se traduit-elle au niveau très fin des mini-colonnes? Selon les hypothèses des neurologues américains Vernon Mourtcastle, David Hubel et Torsten Wiesel, cités dans le dossier de S§A, elle se traduirait par une similarité d'organisation fonctionnelle dans les colonnes traitant de façon identique les données sensorielles et motrices. « Il existerait dans le cerveau de la souris, par exemple, une colonne corticale d'architecture spécifique commandant les fonctions liées aux moustaches ».


 

D'une façon générale, les colonnes corticales seraient spécialisées dans des fonctions déterminées, par exemple la reconnaissance des formes ou des sons dans les cortex sensoriels. Le cerveau humain disposerait d'1 million de telles colonnes 2). Associer des colonnes à des fonctions spécifiques représente une avancée dans l'analyse. Elle permet de préciser la localisation de ces fonctions au sein des aires plus vastes identifiées depuis longtemps, aires sensorielles par exemple. Mais l'analyse ne permet pas encore de descendre, sauf exception, au niveau du faisceau de neurones ou du neurone isolé, afin d'identifier par exemple le célèbre et mythique « neurone de la grand-mère » censé ne s'activer qu'à la vue de la grand mère.

 

 

Les chercheurs de Blue Brain (HBSP) se sont donc attachés à reproduire sur ordinateur une de ces colonnes, à partir de l'observation du tissu d'un cortex de rat, fragment prélevé dans une aire dont la spécificité fonctionnelle a été plus ou moins définie. Le travail doit alors être conduit, en principe, neurone par neurone. La tâche est considérable puisqu'il existe environ 50 catégories de neurones différents et un nombre infiniment plus grand, nous l'avons rappelé, de connexions synaptiques et de messages échangés. Par ailleurs des éléments non neuronaux interviennent également dans l'activité fonctionnelle. Mais on doit quitter alors la matière grise pour atteindre la matière blanche, avec les cellules de la glie, (astrocytes notamment) dont il faudrait en principe intégrer l'action dans le modèle fonctionnel de la mini-colonne. Nous ne savons si Blue Brain descend jusque là.

 

 

Plusieurs méthodes différentes et ingénieuses ont été développées pour analyser in vivo l'anatomie et la physiologie des échantillons de cortex biologique étudiés, ceci nous l'avons dit quasiment neurone par neurone. Les observations ainsi faites ont été reportées sur l'ordinateur. Il ne restait plus qu'à simuler sur celui-ci les neurones, leurs dendrites et leurs synapses (1 milliard de synapses par colonne), ainsi que les échanges en perpétuel remaniement entre ces divers éléments. On conçoit qu'il faille toute la puissance d'un super-ordinateur pour reproduire sous forme

d'équations ne fut-ce qu'une petite partie des échanges réels observés. Le neurobiologiste Idan Segev qui dirige le Centre de calcul neuronal de Jérusalem est associé au projet. Il a développé un ensemble d'algorithmes génétiques permettant d'obtenir le plus rapidement possible ces équations en tenant compte de la variété des éléments à prendre en compte et d'un minimum de plasticité, celle qui affecte les relations de ces cellules dans le cadre d'un fonctionnement in vivo observé de façon obligatoirement très limitée.

 

bluebrain.jpegDepuis 2007, les équipes estiment avoir réussi à modéliser une colonne entière de cortex de rat. L'ordinateur fournit à cet égard des représentations en 3 D et fausses couleurs qui donnent une bonne idée de la complexité du tissu neuronal de l'animal. Une grande variété d'images est désormais disponible (voir image en tête d'article et ci-contre).

 

 

Il ne faut pas confondre ces images avec celles obtenues par observation directe d'un fragment de tissu cérébral maintenu en vie, utilisant par exemple des protéines fluorescentes ou un marquage électro-physiologique.

 

 

Dans l'immédiat le projet vise à étendre la modélisation à l'ensemble du cerveau d'un rat. La tâche paraît hors de portée, mais les équipes comptent développer de nouvelles techniques d'analyse in vivo et surtout d'une automatisation plus rapide, résultant de l'augmentation de la puissance de l'ordinateur et de nouveaux algorithmes travaillant en simultanéité. Une fois obtenu un cerveau global, il sera relativement aisé d'étudier son fonctionnement à une échelle elle-même globale, en le soumettant à des entrées/sorties analogues à celles que le corps vivant impose au cerveau vivant.

 

 

La même méthode sera appliquée à la modélisation d'une mini-colonne du cortex humain, puis, pourquoi pas, vers 2030, à celle du cerveau entier. On devine que chez l'homme, les observations in vivo ne peuvent être conduites, aujourd'hui, qu'à partir d'échantillons de tissu cérébral obtenus par autopsie post mortem. Mais les techniques en plein développement des neurosciences observationnelles, de moins en moins invasives, devraient permettre d'obtenir une représentation de plus en plus fiable des structures, non sans doute du cerveau humain profond, mais des couches supérieures. Celles-ci viendraient alors compléter et informer les simulations sur ordinateur.

 

 

Le projet Brainscales


 

Nous avons évoqué la nécessité de prendre en charge l'adaptativité permanente du tissu cérébral, dénotant sa plasticité. Celle-ci, maximale à la naissance, se maintient dans une certaine mesure tout au long de la vie. Comment en tenir compte, dans la représentation d'une mini-colonne spécialisée, non facilement étudiable à partir d'un échantillon difficile à maintenir en vie?

 

 

Le dossier de S§A n'élude pas la question. La parole est donnée au chercheur français Yves Fregnac, participant au projet européen Brainscales de l'Unic (Unité de neurosciences intégratives et computationnelles du CNRS) et de l'institut Kirchhoff. Ce projet, déjà financé depuis quelques mois par le FET, vise à développer une représentation multi-échelle d'un cerveau aussi complet que possible. Les chercheurs utilisent pour cela des données provenant de l'observation biologique pour construire un modèle computationnel du cerveau. Celui-ci fait appel à l'architecture des réseaux de neurones. Il est donc capable par définition de se construire en tenant compte de l'expérience. Brainscales est associé à Blue Brain de l'EPFL et à un autre projet européen, Brain-i-Nets qui explore les capacités offertes, notamment pour simuler l'apprentissage des aires cérébrales en utiliant de grands ensembles de réseaux neuronaux artificiels 3). Il existe donc une complémentarité de principe entre les trois approches

 

 

Yves Fregnac met cependant l'accent sur les faiblesses intrinsèques du projet Blue Brain. Les résultats obtenus par ce dernier ressembleraient, dit il, à un « erzatz » de cortex, comparable au niveau microsopique à un cortex biologique mais incapable à un niveau plus global ou holistique de reproduire une opération cognitive. Ses éléments ne pourraient en effet acquérir, faute des processus d'apprentissage adéquat, la diversité nécessaires à la conduite d'une telle opération. Les facteurs intrinsèques, liés à la morphologie des neurones, et les facteurs extrinsèques résultant de l'adapativité découlant de l'activité synaptique, ne sont pas séparables. C'est pourtant à cette séparation que procède Blue Brain.

 

 

De plus, comme nous l'avons rappelé ci-dessus, une mini-colonne entretient un grand nombre de relations avec les autres parties du cerveau, provenant de l'activité de neurones de liaisons qui ne sont pas observables sans l'étude du comportement dynamique du cerveau à grande échelle. Tout ces facteurs sont déterminants pour l'étude des fonctions cognitives. Or le modèle Blue Brain à lui seul, construit sur le mode bottom-up, ne pourra pas en tenir compte. Ce n'est pas le cas des deux approches proposées par Brainscales et Brain-i-Nets. D'où l'intérêt de conjuguer l'ensemble, comme il est actuellement proposé à la Commission européenne.

 

 

D'autres horizons


 

Mais pour que les objectifs affichés soient tenus, il faudrait non seulement que les financements demandés soient obtenus, mais qu'une véritable collaboration réunissent les chercheurs concernés, bien qu'ils partent de bases différentes. On ne verrait pas l'intérêt, sauf pour la communication d'IBM, que l'Union européenne mette si l'on peut dire tous les oeufs dans le même panier au sein d'un programme pharaonique dont rien ne garantirait qu'il fournisse les résultats promis s'il ne s'ouvrait pas à une véritable coopération multidisciplinaire.

 

 

Par ailleurs, suffirait-il de s'en tenir aux collaborations mentionnées ci-dessus? Nous pouvons ici rappeler l'existence de démarches et d'approches qui pour le moment ne semblent pas à notre connaissance véritablement prises en compte par les partenaires associés dans le futur consortium HBSP. Contrairement à Blue Brain qui se contraint à ne simuler qu'une toute petite partie du cerveau, elles étudient le fonctionnement et l'anatomie du cerveau global en situation, pour reprendre l'expression utilisée ci-dessus.

 

 

Les plus importantes de ces approches concernent l'application de l'imagerie cérébrale fonctionnelle à la compréhension des grandes fonctions cognitives. Nous avons précédemment sur ce site interrogé les représentants français éminents de cette méthode, Stanislas Dehaene et Jean-Pierre Changeux. Hasard heureux, la revue La Recherche donne ce même mois de février la parole à Stanislas Dehaene et à d'autres chercheurs qui étudient la façon dont le cerveau se construit et se diversifie par l'apprentissage. L'analyse peut être menée au niveau le plus fin des neurones intéressés par ces processus. (La Recherche, février 2011, Comment le cerveau apprend, Neurones, plasticité, mémoire ).

 

 

L'intérêt de ces études est de n'être pas enfermées dans des limites artificielles autres que celles résultant du manque de moyens et de temps d'observation. Elles peuvent s'adresser à toutes les espèces vivantes dotées de l'équivalent d'un système nerveux central. Elles peuvent approcher progressivement l'ensemble des aires neuronales mobilisables par l'ensemble des fonctions mentales. Elles peuvent à la demande passer du détail du neurone et de la synapse à la globalité du cerveau, du corps et finalement du milieu culturel. Un champ potentiel considérable d'investigations est ainsi ouvert. Rappelons que l'activité  des neurones miroirs essentiels à la vie sociale a pu être mise en évidence de cette façon.

 

 

On ne manque pas de reprocher une tentation de réductionnisme aux chercheurs faisant appel à l'imagerie fonctionnelle. Mais les ouvertures conceptuelles apportées par les travaux de Stanislas Dehaene ou de Lionel Naccache, également mentionnés sur notre site, montrent le contraire.

 

 

Nous avons signalé par ailleurs d'autres recherches menées principalement aux Etats-Unis, visant à rassembler sur de vastes Atlas du cerveau l'ensemble des observations faites sur des sujets vivants en bonne santé ou atteints de troubles divers et relatives au fonctionnement du cerveau, de ses composantes et plus généralement du système nerveux. L'intérêt de ces méthodologies observationnelles est de conjuguer les approches de détail et les approches holistes. Elles ne sont pas indemnes d'a priori conceptuels, voire politiques. On ne trouve, en ce domaine comme dans d 'autres, que ce que l'on cherche - plus exactement, on ne trouve pas ce que l'on ne cherche pas. Néanmoins ces globalisations restent scientifiques car dans la mesure où les résultats en sont largement diffusés, sur le modèle du Human Genome Project, elles restent en permanence susceptibles de suggérer des expériences permettant de tester les hypothèses.

 

 

Il s'agit notamment de l'Human Cognome Project, approfondi aujourd'hui par le Human Connectome Project . Au niveau le plus fin, les études du neurone seront bientôt complétées par celle des complexes de protéines assurant la communication synaptiques (Post-synaptic Density ou PSD).

Pour terminer, nous devons, particulièrement sur ce site  où nous leur consacrons une large part, signaler l'apport que pourrait représenter aux projets précédents les travaux d'Alain Cardon et de Pierre Marchais. Ceux-ci visent à modéliser sur des supports informatiques, à partir du concept de systèmes massivement multi-agents propre à l'Intelligence artificielle, non seulement les grandes fonctions du cerveau mais la façon dont celles-ci se traduisent sous forme de phénomènes mentaux, normaux ou pathologiques.

 

 

Il devrait être facile de transposer les résultats obtenus sur des modèles physiques voire à terme biologiques reproduisant les architectures et les échanges neuronaux, afin de tester de façon croisée la pertinence des diverses approches. Mais il faudrait pour cela que le programme européen FET consacre quelques crédits à financer les recherches d'Alain Cardon et de Pierre Marchais, puisque ceux-ci, par éthique, ne veulent pas s'adresser à des agences travaillant pour la défense, telle la Darpa américaine.

 

 

Références
plantri.gif Le projet Blue Brain http://bluebrain.epfl.ch/
plantri.gif Le Human Brain Simulation Project http://cordis.europa.eu/fp7/ict/fet-proactive/docs/ie-sept10-10-markram_en.pdf
plantri.gif Henri Markram http://bluebrain.epfl.ch/page18900.html
plantri.gif Brain and Mind Institute http://bmi.epfl.ch/
plantri.gif Future and Emerging Technologies http://cordis.europa.eu/fp7/ict/programme/fet_en.html
voir aussi http://cordis.europa.eu/fp7/ict/fet-proactive/home_en.html
plantri.gif Unic: http://www.unic.cnrs-gif.fr/ (lien ne fonctionnant pas le 30/01/11)
plantri.gif Le projet Brainscales http://brainscales.kip.uni-heidelberg.de/
plantri.gif Le projet Brain-i-Nets http://brain-i-nets.kip.uni-heidelberg.de/
plantri.gif Interview de Stanislas Dehaene http://www.automatesintelligents.com/interviews/2008/dehaene.html
plantri.gif Human Cognome Project http://en.wikipedia.org/wiki/Human_Cognome_Project
plantri.gif Human Connectome Project http://www.humanconnectomeproject.org/, voir aussi http://www.admiroutes.asso.fr/larevue/2010/111/actualite.htm#actu1
plantri.gif PSD: voir http://www.admiroutes.asso.fr/larevue/2010/112/actualite.htm#actu13.
plantri.gif A propos des travaux d'Alain Cardon, voir notre article "Les «processus coactivés» et la nouvelle maîtrise du monde :
Introduction à la lecture de l'ouvrage d'Alain Cardon Un modèle constructible de système psychique»
Voir aussi l'entretien avec Alain Cardon http://www.automatesintelligents.com/interviews/2011/interviewcardon.html

 

 

Notes
1) Certains ont vu dans le projet Blue Brain une opération récupérée depuis le début par IBM qui en fait un argument commercial puisque c'est un ordinateur IBM qui fournit l'essentiel de la ressource utilisée dans l'opération. Nous n'avons pas les informations nécessaires pour préciser exactement ce qu'il en est.
2) Ceci paraît peu. Si ces colonnes étaient véritablement spécialisées, et qui plus est incapables de s'adapter à de nouvelles entrées sensorielles et motrices, on ne voit pas comment le cerveau pourrait faire face à ses exigences fonctionnelles, dont le nombre nous paraît devoir dépasser le million.
3) On notera en lisant son livre publié sur le site Automates Intelligents qu'Alain Cardon s'est refusé à utiliser des réseaux de neurones formels, dont il estime les capacités trop limitées

 

 

Repost 0
24 janvier 2011 1 24 /01 /janvier /2011 10:48


Par Jean-Paul Baquiast 23/01/2011
Texte provisoire

On a dit que la planète était entrée depuis quelques siècles dans une nouvelle aire géologique marquée par l'empreinte omniprésente des humains sur les phénomènes naturels. Ce serait l'anthropocène. Nous avons nous-même suggéré (Baquiast, Le paradoxe du Sapiens, 2010) qu'il valait mieux employer le terme d'anthropotechnocène, tout au moins pour désigner l'évolution de la Terre depuis quelques décennies. Par ce terme nous postulons que cette évolution est de plus en plus déterminée par un développement exponentiel des technologies associées aux humains dans ce que nous avons nommé les systèmes anthropotechniques. Nous proposons ici d'apprécier la pertinence de cette hypothèse en introduisant le concept de « processus coactivés ». Il illustre la prise de pouvoir de plus en plus marquée des technologies en réseau sur l'humain tel qu'anciennement défini.

Comment définir les « processus coactivés »? Ce concept décrit la façon dont, dans un domaine donné, des systèmes informatiques et robotiques en réseau, que nous nommerons des agents, échangent en permanence les informations résultant de leur activité. Il résulte de ces échanges que l'action de chacun de ces agents peut s'enrichir et évoluer en fonction de l'action des autres. De plus, le déploiement d'un grand nombre de processus coactivés dans un nombre croissant de domaines et de champs d'activité fait apparaître un système global de coactivations réciproques intégrant les communications informationnelles et les actions physiques de l'ensemble des agents.

Ce système devient un système-méta (une sorte de superorganisme). Il acquiert dans un premier temps la capacité de prendre des décisions locales de façon autonome, puis très vite celle d'opérer pour son propre compte. Il se dote en effet dans le cours de sa croissance de l'équivalent de pulsions fondamentales qui se transforment en intentions dictant elles-mêmes des comportements globaux. La sélection darwinienne opère à tous niveaux dans ce milieu très comparable au milieu biologique pour ne conserver que les acquis bénéficiant à la compétitivité du système-méta confronté à d'autres systèmes semblables ou différents.

On verra ainsi « émerger » ou s'auto-construire au sein du système-méta une couche haute dotée de l'aptitude à agir intentionnellement sur toutes les informations produites par les agents et par conséquent sur toutes les actions de ceux-ci. Cette couche fera l'acquisition de ce que l'on pourra nommer en utilisant les termes de la psychologie classique, une capacité à penser, c'est-à-dire à utiliser les résultats de ses observations pour la planification de ses diverses actions. Il s'agira donc d'un système devenant spontanément auto-adaptatif et auto-évolutif. A partir d'un certain niveau de complexité, il sera difficile en théorie de distinguer de tels systèmes des systèmes vivants, y compris de ceux se définissant eux-mêmes comme « humains » c'est-à-dire dotés de capacités dépassant celles des animaux et des ordinateurs. En pratique cependant, ils pourront faire montre de performances dépassant très largement, dans leur champ d'action, celles des humains associés à leur fonctionnement.

C'est ce qui commence à se produire dans les sociétés dites technologiques. Des systèmes globaux se mettent en place dans un certain nombre de secteurs. Ils intègrent tout ce qui est calculé par processeur sur quelque système communicant que ce soit, avec simultanément pour objectif et pour résultat de les unifier et de contrôler l'ensemble des informations produites ou échangées. On voit se généraliser des applications ou plus exactement des fonctions autonomes. Elles sont liées dans un premier temps au médium de communication et visent d'abord la supervision, puis ensuite la commande de l'activité des agents. Leur présence et leurs effets sont peu observables et moins encore pilotables par des opérateurs humains, car les processus coactivés correspondants s'effectuent beaucoup trop vite et en trop grand nombre pour être compris et analysé à l'échelle humaine. Les ordinateurs les plus puissants existant actuellement – à supposer que ces tâches leur soient confiées - n'en seraient pas davantage capables, au moins dans les délais requis (moins de la milliseconde) pour des réactions éventuelles.

Quelques exemples de processus coactivés

Les descriptions faites ici ne tiennent pas de la science fiction, mais s'inspirent d'observations que l'on peut faire de plus en plus, en étudiant les domaines où se sont mis en place de tels processus coactivés. Il ne s'agit pas de domaines relevant de l'expérimentation en laboratoire. Ils concernent des secteurs vitaux pour la survie des sociétés contemporaines. Ils impliquent d'ores et déjà la vie ou la mort de milliers de personnes, mais surtout des pertes et des profits à la hauteur de milliers de milliards (trillions) de dollars, bénéficiant à quelques uns et maintenant des catégories sociales entière dans le sous-développement. C'est que nous allons essayer de montrer avec ces quelques exemples.

Le champ de bataille

Après avoir mené plusieurs décennies de suite des opérations militaires se traduisant par une débauche de puissants moyens matériels, les Etats-Unis se sont trouvés mis en échec par des « insurgés » faiblement armés. Ils sont aujourd'hui confrontés à des guerres dites du faible au fort (ou guerres de 4e génération) où les programmes lourds tel que celui de l'avion de combat dit du XXIe siècle, le F35 Joint Strike Fighter de Lockeed Martin, ne suffiront pas à protéger les militaires engagés sur le terrain. Le Pentagone en a conclu que face à des ennemis connaissant bien ce terrain et disposant de l'appui de la population, il lui fallait des armes capables d'augmenter de façon écrasante les capacités sensorielles, physiques et cognitives du simple combattant. Les stratèges ont prévenu que le besoin sera le même dans les probables futurs combats de rue qui opposeront sur le sol national l'armée fédérale ou la garde nationale à des foules révoltées. Nous avons sur ce site évoqué précédemment certaines de ces armes. Le système SCENICC en constitue une nouvelle version, particulièrement démonstrative.

Il s'agit avec SCENICC de doter le combattant d'une vision à 360°, disposant d'une portée d'au moins 1 km et suffisamment discriminante pour faire la différence entre la canne d'un simple berger et l'AK 47 d'un «insurgé» - étant admis qu'il n'était plus diplomatiquement possible de permettre à chaque fantassin ami d'éliminer a priori tous les civils pouvant être des combattants dissimulés dans un rayon de 1 km.

C'est dans ce but que l'agence de recherche du Pentagone, la Darpa vient de lancer un appel d'offres pour la réalisation d'un système baptisé Soldier Centric Imaging via Computational Cameras effort, ou SCENICC. Le système disposera d'un ensemble de caméras ultra-légères, montées sur le casque mais néanmoins capables de donner une vision tout azimut et en 3D. Le soldat pourra littéralement voir derrière lui, zoomer sur les points suspects, disposer d'une vision binoculaire stéréoscopique – le tout en gardant les mains libres et la possibilité de communication verbale.

Pour commander l'ensemble, le système sera doté d'une unité centrale intelligente, capable de mémoriser des instructions, le souvenir de scènes antérieures et tout ce dont peut avoir besoin le combattant pris dans le feu du combat. Cette unité centrale sera connectée à une arme portative puissante, capable d' «acquérir» les objectifs, suivre les trajectoires des projectiles et évaluer leurs impacts. Il s'agira finalement de mettre en place une « aire de compétences », véritablement post-humaines, dite “Full Sphere Awareness” . Le tout ne devra pas peser plus de 700 g, et disposer d'une batterie de grande capacité, éventuellement rechargeable par le moyen d'un capteur solaire intégré au battle-dress.

Cependant c'est la mise en réseau qui fait la principale force des combattants modernes. Chaque soldat équipé du système SCENICC se comportera comme un noeud (node) au sein d'un réseau reliant chacun d'eux à tous les autres et à divers dispositifs de cartographie et de modélisation du champ de bataille alimentés par des capteurs terrestres ou aériens de type drone. Ce sera un véritable espace virtuel de combat commun au sein duquel chaque combattant sera un élément non pas passif mais proactif. L'ensemble aura nom NETT WARRIOR. Ce programme devrait associer des industriels tels que Raytheon, Rockwell Collins et General Dynamics. Il ne sera pas pleinement opérationnel avant 3 ou 4 ans, mais des éléments utilisables devraient être livrés dans les prochains mois. Nous n'avons pas d'informations précises sur son coût.

Le champ de bataille ne sera pas seulement occupé par des combattants humains équipés de tels systèmes. Il comportera aussi – il comporte déjà – une grande variété de matériels autonomes eux-aussi dotés de moyens d'observation, de transmission et d'ouverture de feu. Nous pouvons évoquer par exemple les systèmes de type MAARS (Modular Advanced Armed Robotic System). Dans ces catégories on trouvera des engins blindés terrestres de toutes tailles, des appareils aériens sans pilote ou drones eux aussi de toutes tailles et capables de multiples missions différentes. A plus haute altitude seront positionnés des avions stratosphériques robotisés tels que le Global Observer, capable de vols prolongés pour un coût relativement faible. Rappelons que depuis longtemps les satellites militaires en orbite étendent à l'ensemble des terres et des mers la « Global awareness » nécessaire au système-méta militaire ainsi mis en place.

Mais en quoi dira-t-on la mise en réseau et la coactivation de tels systèmes produira-t-elle une intelligence et une volonté dont les décisions pourraient s'imposer à celles des chefs hiérarchiques, des Etats-majors et des gouvernements ayant commandité leur production et leurs déploiements ? On peut répondre à cela de deux façons. En ce qui concerne le détail des opérations, il apparaît de plus en plus que la Net Centric Warfare se traduit par des décisions à conséquences létales prises sur le mode automatique, sans intervention humaine, que les diplomates ont par la suite beaucoup de mal à faire excuser. Il s'agit notamment des ouvertures de feu a priori ou préventives, touchant parfois des éléments « amis ». On a tendance à dire que les opérateurs informatiques sont moins susceptibles d'erreurs que les opérateurs humains. Mais lorsque des dizaines d'opérateurs informatiques se coactivent, des phénomènes imprévisibles apparaissent. Nous reviendrons sur ce point en discutant des systèmes boursiers.

En ce qui concerne, à une toute autre échelle, l'engagement d'opérations géostratégiques telle que le fut la décision d'envahir l'Irak, nul ne nie aujourd'hui, y compris au sein de l'establishment militaire, que le complexe militaro-industriel américain a dicté, sous la pression d'intérêts très puissants mais ne s'incarnant pas particulièrement dans la personne de responsables individualisés, des décisions dont les suites contribuent actuellement à la perte d'influence des Etats-Unis. Ceux-ci ne sont pas les premiers à souffrir de tels processus coactivés. L'URSS a perdu la compétition qui l'opposait à ces derniers pour les mêmes raisons. Bien qu'encore dans l'enfance à l'époque, l'informatisation des processus de décision stratégique a joué un rôle non négligeable en ce sens, dépossédant les généraux soviétiques et le Kremlin de la compétence « humaine » qui leur avait permis de résister auparavant à la puissance allemande.

Les frontières terrestres

Il s'agit déjà, dans certains pays, de zones de conflits de plus en plus violents. S'y affrontent les puissances voulant se protéger d'une immigration non régulée et des populations chassées par la misère et prêtes à tout dans l'espoir d'une vie meilleure dans les pays riches. Ces populations sont souvent la victime de maffias qui s'engagent à les faire passer contre des sommes importantes, quitte à les abandonner en cas de difficultés. Mais viendra un temps où ce ne seront plus quelques dizaines de milliers de clandestins qui voudront entrer. Il s'agira de millions ou dizaines de millions d'hommes, victimes des désastres climatiques et économiques prévus pour les prochaines décennies. Si les pays (encore) riches persistent à se défendre de ces invasions, la frontière deviendra un champ de bataille, qu'il s'agisse des frontières terrestres ou maritimes.

Traditionnellement, la garde des frontières était confié à des administrations spécialisées, renforcées à l'occasion par l'armée ou la marine. Mais devant l'accroissement permanent du nombre des clandestins et de leur volonté de passer coûter que coûte, les moyens en hommes que peuvent affecter les pays riches à la défense de leurs frontières atteignent vite des limites. Comme sur le champ de bataille précédemment décrit, on verra de plus en plus les humains relayés par des systèmes de haute technologie. Ceux-ci ont l'avantage d'être disponibles en permanence, d'être relativement économiques et, si l'on peut dire, de ne pas faire de sentiments.

N'abordons pas ici la question de la protection des frontières maritimes qui relève encore de moyens de dissuasion classiques, compte tenu de la difficulté que rencontrent les migrants à se doter des embarcations nécessaires à des traversées de quelque durée. Les frontières terrestres sont beaucoup plus poreuses. D'où la nécessité pour les pays riches de faire appel aux nouvelles technologies.

On peut citer en premier lieu les « murs intelligents ». Le plus ambitieux de ceux-ci est la grande muraille que les Etats-Unis sont en train d'établir entre eux et le Mexique. L'objectif est d'empêcher les incursions non seulement des Mexicains mais de tous les latino-américains attirés par la prospérité du Nord. A plus petite échelle, mais depuis plus longtemps, Israël a établi de tels murs pour délimiter certains implantations et les protéger d'intrusions en provenance de la Palestine ou des pays arabes. L'Espagne protège par un mur ses deux enclaves de Ceuta et Melilla en territoire marocain. Aujourd'hui, la Grèce demande qu'un mur intelligent soit édifié sur la partie de sa frontière terrestre avec la Turquie qui n'est pas naturellement défendue par le fleuve Eyros.

Sur la frontière américano-mexicaine, le mur classique, complété de fossés et barbelés, patrouillé par de trop peu nombreux garde-frontières en 4/4, s'était révélé bien insuffisant. Violé en permanence, il n'avait qu'une utilité de principe. Les projets actuels consistent donc à doubler la muraille physique par des «senseurs» répartis très en amont (à l'extérieur) et capables en principe de distinguer et identifier tous les signes pouvant laisser penser à une tentative d'intrusion. Dès que le risque s'en précise, des robots ayant l'allure de petits chars d'assaut équipés de caméras identifient les intrus et s'efforcent de les décourager d'insister. Si besoin est, un drone (aujourd'hui de type Predator) intervient à son tour. Tout ceci laisse le temps aux gardes-frontières humains de réagir.

Dans l'avenir, en cas d'invasion massive, des unités militaires spéciales, ou fournies par des sociétés civiles de sécurité ad hoc (véritables «chemises brunes» selon les détracteurs américains de ces procédés) prendront les affaires en mains. Tout laisse penser qu'ils se comporteront dans cette tâche avec la brutalité de véritables robots.

Ainsi, tant en amont qu'en aval du mur, des espaces considérables seront sécurisés et militarisés. Comme il s'agit en général de zones désertiques, les protestations ne seront pas trop fortes, mais il n'en sera pas de même dans d'autres régions plus peuplées.

Le projet américain ainsi décrit, conduit par le US Department of Homeland Security et la filiale de Boeing dite Boeing Intelligence and Security Systems, prend actuellement la forme d'un programme de 8 milliards de dollars. Il s'agit du Security Border Initiative Network ou SBInet. Il comportera des tours de 25 mètres réparties tous les 400 m (à terme sur un mur triple long de 3.000 km). Ces tours seront équipées de caméras optiques et infra-rouge pilotées à distance. Des senseurs magnétiques détecteront les véhicules. De plus les tours disposeront d'un radar de surveillance terrestre capable d'identifier les humains, fourni par les « Israël Aerospace Industries » de Tel-Aviv. Le radar sera complété de capteurs acoustiques et capteurs de vibrations destinés à détecter les voix et les pas, aussi furtifs soit-ils. Ces détecteurs devraient pouvoir opérer dans une zone dite de « early warning » s'étendant à 10 km en profondeur. Les caméras se dirigeront automatiquement sur les échos suspects. Elles diligenteront chaque fois qu'elles le « jugeront » utile des messages d'alerte vers les patrouilles armées mentionnées ci-dessus.

Ces murs intelligents ne constituent qu'un début. S'y ajoutent déjà, comme sur le champ de bataille, des robots autonomes terrestres capables d'augmenter le pouvoir de surveillance et le cas échéant d'intervenir directement, en appui voire en remplacement des gardes frontières. Ils patrouillent seuls, jusqu'à identifier quelque chose d'anormal. Ils signalent alors la cible (target) aux postes de garde humains. De tels engins sont aussi utilisés pour protéger des lieux sensibles, militaires ou civils, tels que les sites nucléaires.

Ces robots n'opèrent pas encore dans des lieux ouverts, dont ils n'auraient pas appris à connaître les caractéristiques. Ils interviennent le long de murs et d'enceintes bien définies. Mais cela n'empêche pas qu'ils doivent éviter de confondre des objets ou phénomènes normaux, y compris des ombres, avec les catégories d'intrusions qu'ils doivent signaler. Ils sont donc dotés de capteurs et de logiciels d'intelligence artificielle de plus en plus évoluées, capables de s'affiner par retour d'expérience. Lorsqu'ils ont identifié un phénomène anormal, ils alertent le poste de garde qui peut, avant même d'envoyer un agent, observer la cible par les yeux du robot, voire l'interpeller par l'intermédiaire de l'organe vocal dont est doté celui-ci.

Les robots patrouilleurs sont aussi équipés d'armes d'intimidation non létales au cas où les personnes interpellées n'obéiraient pas aux injonctions. On envisage sérieusement de les doter dans l'avenir d'armes à feu. Celles-ci cependant n'interviendraient (jusqu'à nouvel ordre) que sur commande de l'opérateur humain. Mais de l'acquisition de la cible jusqu'à l'ouverture autonome du feu, il n'y a qu'un pas. Il faudra compter avec le fait que le superviseur humain sera vite saturé par la multiplication des situations à risques et sera tenté de déléguer ses pouvoirs au système. Celui-ci ne manquera pas d'en tirer profit, apprentissage aidant, pour augmenter les siens.

Le marché est très porteur et beaucoup de laboratoires et d'industriels y investissent pour réaliser des produits de plus en plus performants. Afin d'obtenir des robots susceptibles de s'adapter à des environnements non encore cartographiés directement par eux, ils envisagent notamment d'utiliser les images 3D du type de celles que recueillent les véhicules utilisées dans l'application Google Street View. Ce même Google vient d'ailleurs d'annoncer qu'il a mis au point une voiture sans conducteur capable de se piloter seule avec ces aides à la localisation.

En dehors des véhicules terrestres, le marché demande de plus en plus de drones, capables d'inventorier des espaces beaucoup plus vastes. Les drones de surveillance seront en principe plus petits et moins coûteux que les grands drones militaires tels que le Predator utilisés au Pakistan par l'armée américaine, mais ils fonctionneront sur le même principe.

Parmi les nouveaux produits, on peut citer le Mobile Detection Assessment Response System de General Dynamics utilisé à titre expérimental par l'US National Nuclear Sécurity Administration, le robot tout terrain réalisé par la compagnie israélienne C-Nius Unmanned Ground Systems et le robot de garde qui pour le moment n'est pas mobile, utilisé par la Corée du Sud, le Samsung Techwin SGR-1

L'exemple américain est repris un peu partout dans le monde. Une conférence relative à la sécurisation des frontières européennes par des systèmes technologiques du type de ceux évoqués ci-dessus s'est tenue en novembre 2009 à Leeds, (UK). L'Union européenne a lancé un programme dit TALOS (Transportable Autonomous Patrol for Land Border Surveillance) associant des partenaires américains (on s'en serait douté). Les Polonais dirigent le projet, par l'intermédiaire du PIAP, Institut de recherche industrielle pour l'automatisation et les mesures de Varsovie. Le consortium regroupe actuellement les représentants de 10 Etats et dispose d'un budget de 10 millions d'euros. A l'avenir, le réseau pourrait être déployé sur toutes les frontières terrestres de l'Europe. Mais à quel coût et comment sera-t-il accepté ? Comment réagiront les pays voisins, notamment la Russie, qui se trouverait ainsi exclue symboliquement de l'espace européen?

Les places de marché électroniques

On sait que les Bourses mondiales, où se négocient les valeurs financières et les marchandises, se sont depuis plus de vingt ans informatisées et mises en réseau. C'est ce phénomène qui a été le principal facteur de ce que l'on nomme la mondialisation financière et qui a soutenu l'idéologie politique dite du néo-libéralisme, selon laquelle le bon fonctionnement de ce système global imposait la disparition des contraintes réglementaires d'origine gouvernementale ou à vocation protectionniste.

Les acheteurs et vendeurs opérant sur ce marché mondial restent en principe des individus divers et variés. En fait, il s'agit de grands organismes, principalement les banques et fonds collecteurs d'épargne. Au sein de ces organismes interviennent des équipes spécialisées, composées de ce que l'on nomme aujourd'hui les « traders ». Les traders sont très bien rémunérés, parce que leur expertise peut faire perdre ou gagner en quelques secondes des sommes considérables, aux épargnants et préteurs comme aux banques eux-mêmes. Mais on découvre aujourd'hui que les vrais « traders », ceux qui déterminent l'évolution des taux, sont de moins en moins des humains mais des algorithmes.

Un trader humain peut acheter 1000 actions de telle firme le jeudi matin au cours de 20 euros l'action et les vendre le jeudi soir au cours de 21 euros, réalisant un bénéfice de 1000 euros. Cependant, si le cours de l'action est à un même instant de 19, 28 à Londres et de 19, 29 à New York, mais passe un dixième de seconde plus tard respectivement à 19,29 et 19,28, acheter à Londres pour vendre à New York ou réciproquement en cas de renversement des cours devient impossible sans l'intervention de ces algorithmes informatiques.

Comment opère un trader humain? Il recueille et traite dans le minimum de temps les informations sur l'état de l'économie, des entreprises, des tendances politiques et toutes données susceptibles de se répercuter sur les cours. S'il apprend par exemple que tel grand laboratoire éprouve quelques difficultés avec l'un de ses médicaments, il en déduit que l'action de ce laboratoire va baisser et en tire les conséquences, en matière d'achat ou de vente.

Or nous apprenons par la presse que récemment le Dow Jones, leader mondial dans l'information économique et boursière, avait lancé un nouveau service nommé Lexicon qui envoie des informations en temps réel aux investisseurs professionnels. Mais ceux-ci ne sont pas des humains, ce sont des algorithmes, les mêmes qui décident des opérations d'achat-vente. L'information dont ils ont besoin n'est pas qualitative mais numérique. Lexicon traduit pour eux en temps réels les informations qualitatives collectées par le Dow Jones et les transforme en données numériques compréhensibles par les algorithmes en charge des décisions d'investissement.

Ces derniers peuvent à leur tour les répercuter en les modifiant au besoin sur les algorithmes utilisés par d'autres investisseurs. Lexicon participe ainsi avec de nouveaux puissants moyens à la transformation du réseau mondial des places de marché en un vaste ensemble de processus coactivés capable de s'informer de l'actualité générale, d'en extraire des tendances et de s'en servir pour vendre ou acheter. Ce sont eux qui prennent désormais les décisions et non plus les humains. Il s'agit de ce que l'on nomme le computer-aided high-frequency trading. Il fait aujourd'hui environ 70% des transactions s'effectuant à Wall Street, et par conséquent dans le reste de la « planète finance ».

Les traders à haute fréquence (« high frequency traders ») dits aussi « flash traders » procèdent à des milliers de transaction par seconde, à une telle échelle qu'ils peuvent perdre ou gagner des fortunes sur une variation de cours de quelques centimes. D'autres algorithmes sont plus lents mais plus sophistiqués. Ils recherchent les investissements négligés par la majorité des autres. Le système global en résultant est plus efficace et rapide qu'aucun esprit humain, même assisté d'un ordinateur. Mais en contrepartie, il est plus difficile à comprendre, prédire et réguler. Les algorithmes coactivés entretiennent entre eux une sorte de conversation par laquelle chacun d'eux répond à la milliseconde aux propos des autres. Des règles mathématiques prédominent alors, éliminant l'émotion et les erreurs de jugement.

Cependant des phénomènes inattendus de feed-back peuvent survenir et provoquer des catastrophes (au sens quasi mathématique du mot) s'étendant à l'échelle du monde en quelques heures. C'est ainsi que surviennent régulièrement des baisses soit ponctuelles soient généralisées dans des délais très courts. Beaucoup d'investisseurs humains en sortent ruinés. Certains au contraire savent profiter de l'évènement. Dans certains cas, le système global peut s'effondrer, et c'est la crise mondiale. Les bons traders humains, ceux qui continuent à être très bien rémunérés, sont ceux qui ont compris comment commercer avec les algorithmes. Ils savent se situer à la limite de la catastrophe. Mais certains disent qu'ils sont eux-mêmes devenus des algorithmes.

S'agit-il de phénomènes marginaux, au regard de ce que l'on nomme l'économie réelle? Le livre de François Morin (Le nouveau mur de l'argent, essai sur la finance globalisé ) est très éclairant. Il précise que le PIB de la planète Terre, celui qui seul importe car il exprime l'économie réelle, ne représente que 3% des échanges financiers mondiaux. On peut imaginer le moment où un système-méta conscient totalement distribué sur le Web, un "méta-trader artificiel" opérant à la micro-seconde, prendra le contrôle total de la finance. Que restera-t-il alors des entreprises, du travail humain, des valeurs humaines fondées sur le travail?

Perspectives

Que conclure? L'évolution vers un monde qui serait de plus en plus défini par les compétitions entre des systèmes anthropotechniques sous contrôle de ce que nous avons nommé des processus coactivés va-t-elle se poursuivre? Cette perspective est probable, si l'on considère le poids des pouvoirs qui financent les investissement nécessaires à la mise en place des logiciels, matériels et réseaux servant de support à de tels processus.

Les exemple évoqués dans le présent article sont révélateurs. Quelles sont les forces qui s'impliquent dans la généralisation des systèmes-méta que nous avons décrits? On trouve en premier lieu celles visant sous couvert de défense et de sécurité, à une militarisation de plus en plus complète de l'espace social. Le but de cette militarisation est de conserver aux détenteurs de la richesse et de la puissance, par la force, les avantages qu'ils se sont donnés.

Il s'agit d'une toute petite minorité en nombre, qui se trouvera de plus en plus confrontée à des milliards de défavorisés de toutes sortes et de toutes origines. Ces derniers ne demeureront évidemment pas passifs et feront tout ce qu'ils pourront pour échapper, avec les armes dont ils disposeront, à la domination pesant sur eux. Il convient donc préventivement de les tenir sous contrôle. Il est significatif de voir que pratiquement toutes les recherches en matière de systèmes intelligents pour la défense et la sécurité sont financées par des budgets militaires. Au premier rang de ceux-ci se trouve le budget de la défense américain, lequel est à lui seul dix fois plus important que ceux cumulés des autres Etats.

Les mêmes minorités de la richesse et de la puissance tirent leurs pouvoirs de la prédation qu'elles exercent sur les activités productives des milliards de travailleurs qui en contrepartie de leur travail au sein de l'économie réelle gagnent à peine de quoi survivre. Nous avons vu que cette prédation s'exerce presque exclusivement aujourd'hui par le biais de la finance internationale en réseau.

Les grands acteurs au sein de cet univers virtuel, banques, fonds spéculatifs, corporate powers, ont réussi à persuader les travailleurs de la base qu'ils devaient leur abandonner les valeurs ajoutées de leur travail. Périodiquement, des crises artificielles viennent spolier les épargnants de leurs économies afin d'en faire bénéficier les « investisseurs ». Pour que ceci soit accepté, il fallait évidemment que les humains à la source de ces techniques de prédation, formes renouvelées de l'esclavage ancien, puissent ne pas être accusés d'en être les organisateurs. La meilleure solution consistait à laisser agir des systèmes-méta anonymes, bien plus imaginatifs d'ailleurs que les humains eux-mêmes pour capter les ressources des travailleurs de la base.

Il se trouve cependant que les processus coactivés que nous avons décrits ne cessent pas de s'étendre au sein des sociétés, en se coactivant sur des échelles de plus en plus larges. Les humains qui étaient à l'origine de leur mise en place risquent de se trouver désormais dépassés par leurs créatures, lesquelles exerceront le pouvoir à leur place.

On retrouvera modernisé le phénomène décrit par le vieux mythe de l'homme face au Golem. Malheureusement, aussi intelligents qu'ils soient dans les détails, les processus coactivés ne semblent pas capables d'une intelligence globale, prenant notamment en charge un développement équilibré des civilisations au sein d'une planète aux ressources de plus en plus insuffisantes. Les catastrophes évoquées dans le scénario pessimiste de notre livre « Le paradoxe du sapiens », risquent donc de se produire.

N'y aurait-il pas cependant des lueurs d'espoir ? Les évènements politiques récents, un peu partout dans le monde, montrent que les populations de la base peuvent se révolter en masse contre le Système qui les aliène. Des destructions peuvent en découler, du type dit luddiste dans les pays anglo-saxons, où le peuple tentait de détruire les machines. Il s'agirait alors d'une révolte faisant appel à la force brutale.

Ne pourrait-on en imaginer une autre infiniment plus subtile et prometteuse? Il se trouve que des scientifiques ont essayé avec succès, depuis déjà quelques années, d'analyser le fonctionnement du cerveau humain incorporé (incorporé dans un corps et dans une société). Or ils ont découvert que ce cerveau fonctionne sur le mode des processus coactivés que nous avons évoqué dans cet article.

Certains chercheurs sont allés plus loin. Ils ont simulé sur des systèmes informatiques, dit massivement multi-agents, le fonctionnement de tels processus. Ils pensent avoir découvert ce faisant bien des points encore obscurs intéressant le travail du cerveau, de l'intelligence et de la conscience, propres à l'homme. Mais dans le même temps et en parallèle, ils ont découvert des points encore obscurs intéressant le fonctionnement des processus informatiques se développant actuellement en aveugle, par exemple sur les réseaux de la finance ou sur ceux du web, évoqués dans cet article.

La grave question politique, posée par les recherches de ces scientifiques, est que le savoir ainsi développé par eux sera inexorablement capté, si aucune précaution n'est prise, par les forces finançant la guerre et la spéculation.

Il y aurait pourtant une solution: adopter la démarche du logiciel libre. Celle-ci, qui est également pratiquée pour le développement de certains robots en Open Source, serait la garantie d'un minimum de démocratisation autour de la connaissance et de la mise en oeuvre d'un des enjeux majeurs de notre civilisation technologique, la conscience artificielle. Il faudrait pour cela que les investissements nécessaires à générer des systèmes opérationnels à partir du modèle proposé par le professeur Alain Cardon, le père d'un de ces projets, bien connu de nos lecteurs, ou par d'autres chercheurs qui le relaieraient, soient pris en charge et diffusés au sein de communautés d'utilisateurs suffisamment avertis pour s'impliquer dans l'effort de diffusion démocratique qui s'imposerait.

Nous pensons pour notre part que ce serait la meilleure façon de donner suite aux travaux d'Alain Cardon sur la conscience artificielle. Les lecteurs pourront en juger puisque celui-ci a bien voulu nous confier l'édition de son dernier ouvrage « Un modèle constructible de système psychique » publié ici sur le mode de la licence publique GNU. Il ne s'agit pas d'un ouvrage facile, mais le sujet est loin de l'être. Nous encourageons tous nos lecteurs à le lire.

L'ouvrage sera prochainement disponible sur le  site.Automates Intelligents, avec un message sur ce blog

Repost 0
21 janvier 2011 5 21 /01 /janvier /2011 15:41

 

 


Les transformations silencieuses

François Jullien
Grasset 2009

présentation et discussion par Jean-Paul Baquiast - 20/01/2011

 

 


François Jullien est philosophe et sinologue, professeur à l'Université Paris Diderot, directeur de l'Institut de la pensée contemporaine ainsi que du Centre Marcel-Granet , membre de l'Institut universitaire de France.

Il a produit une oeuvre importante, riche en ouvrages et articles, visant à mieux faire comprendre la pensée chinoise aux esprits de formation occidentale. Il est traduit en de nombreuses langues.

Le livre « Les transformations silencieuses », daté de 2009, a été suivi par
* Collectif, Philosophies d'ailleurs. Les pensées indiennes, chinoises et tibétaines, sous la direction de Roger-Pol Droit, Éditions Hermann, 2009
* L'invention de l'idéal et le destin de l'Europe ou Platon lu de Chine, Le Seuil, 2009
* Le Pont des singes (De la diversité à venir), Éditions Galilée, 2010
* Cette étrange idée du beau, Grasset, 2010
* Philosophie du vivre, Gallimard, 2011

Pour en savoir plus
* http://fr.wikipedia.org/wiki/Fran%C3%A7ois_Jullien
* Commentaire du livre par Michel Volle http://michelvolle.blogspot.com/2010/04/francois-jullien-les-transformations.html
* Entretien daté du 25 janvier 1998 http://www.berlol.net/foire/fle98ju.htm
* Voir aussi "Contre François Jullien" [Poche] de Jean-François Billeter

Pour approfondir l'histoire de la pensée chinoise en France, on se référera à l'oeuvre de Marcel Granet (1884-1940)
Voir http://en.wikipedia.org/wiki/Marcel_Granet

 

 

Texte provisoire, soumis à François Jullien

Une question politique d'actualité


Tous les stratèges et géostratèges occidentaux se posent actuellement une question d'importance : la Chine est elle engagée dans un processus de croissance au terme duquel elle rejoindra les Etats-Unis voire les remplacera comme première puissance mondiale ? Si c'était le cas, l'Europe serait-elle entraînée inexorablement dans le déclin américain ou pourrait-elle conserver une place entre ces deux géants correspondant à son rang actuel de 2e puissance économique mondiale ? Mais pour cela ne devrait-elle pas apprendre à mieux connaître la Chine, au delà des clichés généralement répandus, le plus souvent d'ailleurs par les Américains eux-mêmes.

Pour mieux connaître la Chine, il faut tenter de mieux la comprendre. Est-il suffisant pour cela d'étudier ses performances économiques et certaines des fragilités qui s'accumulent en contrepartie de ses mutations accélérées? Devrait-on compléter cette première approche, relativement aisée, par l'étude de la philosophie et de la langue chinoise, lesquelles nécessitent une pratique longue et difficile ? Une culture complexe risque en effet de rester hermétique si l'on ne fait pas l'effort de retrouver ses sources.

Dans le cas de la Chine, ces sources remontent à plusieurs millénaires et ont généré de nombreux malentendus depuis que l'Occident chrétien et impérialiste s'était efforcé de conquérir l'Empire chinois. Ces malentendus risquent d'être encore très vivants, du fait que la Chine de son côté n'a pas fait beaucoup d'effort pour établir un dialogue de fond avec ce que l'on pourrait appeler la philosophie et la culture occidentale – qui sont d'ailleurs plurielles - comme si elle n'en avait pas besoin.

Une difficulté supplémentaire apparaît à celui qui tente de consulter les rares spécialistes de la Chine ou sinologues accessibles au grand public. Leurs jugements sur la Chine ne sont pas identiques – comme on pouvait s'y attendre. En effet les attributs qu'un observateur confère au sujet qu'il étudie tiennent autant des spécificités propres de son regard que des caractères intrinsèques de ce sujet.

En simplifiant beaucoup, on dira que pour beaucoup de sinologues il existe un irréductible chinois, qui risque de rester tel malgré tous les efforts pour établir des ponts entre cultures. Dans ce cas, il faudra en tenir compte et ne pas se faire d'illusions sur un éventuel partage des valeurs et des objectifs. Pour d'autres au contraire, le mouvement de la mondialisation, marqué notamment par la diffusion de technologies communes, provoque une mise en convergence des cultures – ce qui ne serait d'ailleurs pas exclusif de rivalités profondes pour l'accès aux sources du pouvoir et de la puissance. Nous allons retrouver cette discussion en commentant «Les transformations silencieuses» de François Jullien.

Mais pourquoi sur ce site qui ne fait pas profession de sciences humaines et moins encore de sinologie, théorique ou appliquée, recommander la lecture de François Jullien et la discussion de ses thèses, notamment celles qui sont exposées dans « Les transformations silencieuses »? C'est parce que l'argument de fond développé par ce livre, autant que nous avons pu le comprendre, consiste à démontrer la présence d'un « écart » entre la pensée chinoise traditionnelle et la pensée grecque, celle dont s'inspire en grande partie la rationalité scientifique moderne(1).


La question du "réalisme"

Nous pourrions dire, en simplifiant beaucoup, que la pensée grecque de l'Antiquité s'était démarquée des approches mystiques ou magiques des peuples précédents en posant l'existence d'une réalité en soi, extérieure à l'observateur mais susceptible d'être décrite par lui à travers les instruments de la raison, la logique et les mathématiques. Cette réalité peut être décomposées en entités spécifiques, les «êtres» du monde, dont les diverses sciences étudient les caractéristiques et les relations le plus objectivement possible. Ce faisant, ces sciences ont l'inconvénient de « réifier » les objets de leurs études, c'est-à-dire notamment de prendre pour des réalités en soi de simples hypothèses. Autrement dit, elles confèrent à ces hypothèses un statut qui les immunise contre toutes critiques ou modifications extérieures.

C'est ainsi que, pour des sinologues occidentaux s'inspirant du « réalisme » de la pensée grecque, il existe un être bien défini, par exemple la Chine d'avant la conquête occidentale. Il existe un autre être également bien défini: la Chine de la révolution techno-scientfique. Il existe même un troisième être, moins facile à définir mais que l'on peut cependant étudier, la « Grande Transformation » qui se caractérise par l 'apparition de nouveaux traits et la disparition d'anciens traits, liées à l'entrée de la Chine dans l'ère industrielle. Ces différents «êtres» doivent pouvoir être décrits objectivement par des observateurs (anthropologues, historiens, économistes, stratèges) ne s'impliquant pas dans leurs descriptions. De la même façon, pour reprendre un exemple souvent utilisé par François Jullien, il existe un "être" bien défini, la neige, il en existe un autre, l'eau, il existe aussi un troisième "être", la fonte de la neige, chacun ayant des traits différents et des frontières observables.

Au contraire de la pensée grecque, la pensée chinoise traditionnelle, selon François Jullien, ne pose pas l'existence d'êtres et d'états bien définies, mais de processus de transformations conduisant le monde dans son ensemble à évoluer, d'une façon plus ou moins progressive, lente et silencieuse. Le Sage ne peut pas s'individualiser ou se séparer au regard de ces transformations, puisqu'il les subit lui-même, passant par exemple de la jeunesse à la maturité puis à la vieillesse. Tout au plus peut-il y insérer son action pour profiter des dynamiques évolutives à l'oeuvre dans le monde, au lieu de tenter de s'y opposer frontalement.

Dans cette optique, nous pourrions conclure que la Chine (ou l'Empire du Milieu) ne peut pas être décomposée en une série d'états bien définis. Il s'agit au contraire d'un processus évolutionnaire sans début bien précis et sans fin bien prévisible, dont les transformations, plus ou moins silencieuses à nos yeux, modifient par exemple le poids géopolitique au regard d'autres transformations, prenant la forme d'autres processus, opérant dans le reste du monde. Dans le cas de la neige/eau, ce qui devra particulièrement intéresser le Sage – comme d'ailleurs le scientifique – sera la transformation de l'une en l'autre – et réciproquement dans le cas de transformations réversibles.

François Jullien, qui pratique avec la même compétence la philosophie grecque et la philosophie chinoise, déduit de ce premier écart primordial entre les deux pensées, occidentale et chinoise, l'existence de toute une série d'autres écarts qui selon lui les séparent, ainsi par conséquent que les langues différentes par lesquelles elles s'expriment, sans mentionner les comportements, eux aussi différents, que ces écarts peuvent entraîner.

C'est ainsi que la pensée occidentale relayée par la science « réaliste », insiste sur le « sujet » et sur son « action » alors que pour la pensée chinoise il ne peut y avoir d'actions car il n'y a pas de sujets à qui correspondraient ces actions. Il n'y a qu'un continuum dans la transformation duquel est inséré l'humain et qu'il influence du seul fait de ses propres transformations non volontaires. De même, pour la pensée occidentale, la transformation est marquée par le passage d'un état bien défini à un autre, du blanc au noir, du jeune au vieux. Chacun de ces états correspond à une « réalité » du monde. Pour la pensée chinoise, la transformation est plutôt une transition qui "modifie tout en continuant, qui ferme mais qui ouvre ". La Chine moderne est l'ancienne Chine qui se modifie en se continuant à travers des transitions pouvant être imperceptibles.

Le « parti-pris de l'Etre » propre à la pensée occidentale, entraîne bien d 'autres «écarts». L'Etre n'a de sens, dans le langage philosophique comme dans celui de la science, que s'il est déterminé. D'où la nécessité de multiplier les qualificatifs ou les observations instrumentales. A l'inverse, la transition chinoise qui ne postule pas d'être est indéterminable. Elle ne connait pas de point précis permettant de passer d'un état à l'autre, par exemple de l'ancienne Chine, à supposer que par convention au réalisme on accepte de conserver ce concept(2) à la nouvelle Chine. La pensée chinoise, renonçant à s'exprimer dans le langage de l'Etre, parle à propos de la transition de «ce que l'on regarde mais que l'on ne perçoit pas»(3). Pour François Jullien, qui se revendique comme matérialiste, c'est cette approche qui s'est exprimée par le Tao, dans lequel les Occidentaux ont vu une mystique refusant le concept de dieu personnifiable, mais qui selon lui n'est en rien mystique ou religieux. Il s'agit simplement d'une conception du monde(4).

S'inspirant de cette conception du changement, le langage chinois, contrairement au langage occidental, est non-prédicatif. Il n'attribue pas à ce dont il parle de caractères bien définis et non transposables. De ce fait, il refuse le principe de non-contradiction qui est à la base de la logique occidentale. Dans le logos d'Aristote, à la source de la pensée occidentale, trois partis pris conjoints s'imposent au langage; la détermination (on parle de ceci et pas d'autre chose), la substantialisation (on renvoie à un Etre propre se tenant sous le substantif) et la prédication (on attribue à cet Etre un certain nombre de qualités ou prédicats). Pour la pensée chinoise, qui ne vise pas des objets mais des processus de transformation, le langage doit montrer comment " ce qui est mis en lumière est mis en mouvement, ce qui est mis en mouvement se modifie et ce qui se modifie se transforme". Dans ces conditions, où le langage évacue l'idée d'un être sous-jacent, il n'y a plus lieu de poser la question des origines ni des fins dernière et moins encore d'un démiurge derrière la création ou les fins.

Cette approche paraît un peu obscure quand il s'agit de nommer par le langage un objet concret tel une chaise ou un tigre, mais elle retrouve, y compris pour les Occidentaux, toute sa pertinence quand il s'agit par exemple de considérer le cosmos. Nous y reviendrons ci-dessous. La pensée chinoise est très proche de la cosmologie scientifique moderne, laquelle par exemple refuse de plus en plus le concept de Big bang initial ou de Big shrink final...et qui bien évidemment n'a pas besoin, au contraire des cosmologies primitives, d'un Dieu créateur. Mais la pensée chinoise peut aussi rejoindre certaines façons de se représenter les objets de la vie courante propres à la pensée scientifique occidentale. Ainsi il peut être utile dans certains cas pour cette dernière de considérer qu'un objet tel une chaise ou un tigre représente la phase actuelle d'un processus de transformation, industrielle ou biologique, qui ne commence pas et ne s'arrête pas aux objets en question.

François Jullien met en évidence d'autres différences dans la façon dont les deux pensées, chinoise et occidentale, considèrent les grands thèmes philosophiques. Il en est ainsi du changement assimilé au mouvement pour l'Occident, ce qui suppose à nouveau un point de départ et un point d'arrivée, avec par conséquent une distanciation entre les deux. Or si je change tout au long de ma vie, ce n'est pas, comme dans un voyage, qui est mouvement, le point de départ ou le point d'arrivée qui m'importent, mais les divers changements que j'ai vécus au long de ma vie. La destination finale, c'est-à-dire la mort, ne m'importe pas. Il en est de même du vieillissement, qu'il faut considérer tout de son long et non pas au regard de la mort qui est son terme final. On pourrait dire que la civilisation occidentale est une civilisation de la mort, s'opposant à la civilisation chinoise qui serait celle de la vie.

François Jullien évoque aussi le concept de temps, qui pour lui, là encore, est une invention occidentale, dont la pensée chinoise traditionnelle n'a pas vraiment besoin. Certes, la civilisation chinoise a toujours mesuré l'écoulement du temps avec des techniques très avancées, mais elle ne personnalisait pas ou ne déifiait pas le temps. Ce qui mesurait son écoulement étaient les changements manifestés par les lieux ou les personnages.

Nous arrêterons ici l'étude des écarts entre les deux pensées en évoquant le concept d'événement. Pour l'Occident, la culture de l'Evènement, qui fonde les Grands Récits, fait là encore disparaître celle de la transformation, grâce à laquelle du nouveau peut apparaître. La réification de l'Evènement vient pour elle rejoindre la mystique dans le Christianisme, autour de grands Evènements fondateurs, Création, Incarnation, Résurrection. Aujourd'hui, l'actualité prosaïque est vécue non comme un ensemble de transformations, mais comme une succession d'événements médiatiques. L'attention y saute de l'un à l'autre, en perdant le sens de leurs significations en tant que transformations.

 

Observations

Le court aperçu que nous venons de tenter de faire ne doit pas être considéré comme résumant d'une façon suffisante « Les transformations silencieuses ». Il s'agit d'un livre lettré, complexe, riche et qu'il faut donc aborder sans intermédiaire. De même, nous n'avons pas pu replacer cet ouvrage dans l'ensemble de l'oeuvre de l'auteur, faute d'avoir étudié celle-ci dans sa perspective historique. Notons seulement que, comme indiqué dans les références, certains sinologues ne partagent pas tous les jugements qu'il porte sur la pensée chinoise. De même certains intellectuels chinois que nous avons pu approcher disent ne pas y reconnaître leur propre pensée. Mais peu importe.

Nous voudrions pour notre part proposer quelques observations, qui devraient permettre de faire le lien entre les travaux de François Jullien et l'actualité de ce que nous pourrions appeler les sciences cognitives:

 

1. Il n'y a pas lieu, comme d'ailleurs l'auteur le suggère, d'opposer radicalement la pensée chinoise et la pensée occidentale, héritée de la pensée grecque. Elles manifestent sans aucun doute des écarts, mais on a tout lieu de croire que souvent elles se conjuguent dans l'appréhension du monde extérieur.

Si l'on tente de remonter à l'archéologie des processus de formation des connaissances par un système cognitif, quel qu'il soit, animal, humain ou artificiel, on retrouve nécessairement les mêmes contraintes sélectives. Une partie de l'activité du cerveau consiste à percevoir des entités « discrètes », événements, phénomènes ou objets. Sous la pression d'impératifs de survie, l'organisme associe à ces perceptions des significations et des qualificatifs exprimant l'intérêt de l'objet perçu au regard de cette survie. Il est impératif de distinguer un lion d'un arbre. Il s'ensuit qu'il est impératif d'associer au sens donné à la perception de cet objet un message permettant par le langage de transmettre aux congénères la signification que l'expérience a permis de lui attribuer, afin de s'en écarter ou au contraire de s'en rapprocher.

De là à réifier l'objet, voire à le diviniser, il n'y a qu'un pas. On peut penser à cet égard que la création d'objets cognitifs à partir de perceptions expérimentales n'a pas attendu la pensée grecque. Dès les origines de la pensée symbolique, elle a fondé les origines d'une connaissance préscientifique ou empirique du monde. Ceci même si parallèlement, ces connaissances donnaient lieu à des réifications ou des divinisations dont le risque était évidemment de faire perdre contact avec l'évolution des perceptions découlant de transformations dans les conditions de l'expérience.

Mais parallèlement il n'y a pas lieu d'exclure que les cerveaux, y compris dans le monde animal, puissent percevoir spontanément des phénomènes de transformation de type qualitatif, et plus généralement des traits du monde extérieur appréhendables sur un mode global, indifférencié, voire affectif. Le cerveau (on pourra parler de cerveau droit), et plus généralement le corps tout entier de l'observateur, est alors sensible aux processus de transformation silencieuse décrits par la pensée chinoise. De ce fait, il peut s'y insérer afin d'y jouer sa partition.

Les aléas de cette insertion des observateurs/acteurs dans un monde extérieur complexe et évolutif feront que, selon les besoins de la survie, les deux modes de représentation, que François Jullien attribue l'un à la pensée occidentale, l'autre à la pensée chinoise, seront sollicités en alternance, sinon même en superposition. Il suffit d'observer comment se forment aujourd'hui les connaissances, dans la vie quotidienne comme dans le monde scientifique, pour prendre conscience de ces superpositions – et des conséquences en termes d'enrichissement des contenus cognitifs et des comportements globaux pouvant en résulter.

 

2. Si l'on voulait cependant comprendre pourquoi dans l'ensemble, la pensée réifiante et computationnelle que François Jullien attribue à la philosophie grecque s'est écartée de la pensée de type analogique(5) propre à la pensée chinoise, il serait important de rechercher un facteur causal. Il s'agirait alors d'un travail d'historien des philosophies et des sciences que nous ne pouvons pas faire ici, comme on le conçoit.

Disons seulement que les causes à évoquer ne semblent pas à rechercher dans la découverte de telle ou telle technologie, puisque les deux civilisations en avaient plus ou moins partagé les origines. Peut-être ces causes ont-elles tenu à des caractères géographiques entraînant des divergences géopolitiques, ceci dès au moins cinq millénaires avant notre ère. Mais qu'en était-il alors des civilisations ayant précédé la civilisation grecque, en Egypte, au proche Orient et en Asie mineure ? Plus en amont encore, les amorces de divergences entre les deux civilisations étaient-elles présentes dès le néolithique supérieur, vers – 35.000 ans, au temps des grottes ornées de l'Europe occidentale ? Les peintures pariétales symbolisaient-elles des objets réifiés ou des transformations qualitatives suscitant des approches chamaniques de type mystique ?

Ce débat n'intéresserait pas que les historiens. Il donnerait peut-être des éléments permettant de répondre à la question que nous avons évoquée en introduction: les écarts entre la pensée chinoise et la pensée occidentale vont-ils se poursuivre aujourd'hui, dans le cadre unificateur de la mondialisation technologique ? En résultera-t-il des écarts voire des oppositions voire des conflits ouverts, en termes géopolitiques?

 

3. Un troisième point, déjà signalé dans le cours de cet article, doit être évoqué. Il s'agit des convergences de plus en plus grandes entre la pensée chinoise telle que décrite par François Jullien et les représentations du monde résultant du relativisme non-réaliste hérité de la physique quantique et qui se répandra inévitablement dans toutes les sciences macroscopiques. Nous nous bornerons une nouvelle fois ici à évoquer les travaux véritablement fondateurs de Mme Mugur-Schächter et la méthode de conceptualisation relativisée (MCR) qu'elle a proposée(6).

Plus généralement l'épistémologie découlant des recherches actuelles en physique quantique, en cosmologie et même, à une autre échelle, en biologie, conduit à prendre en considération des « objets » sans commencement ni fin bien arrêtés, comme le cosmos ou la vie. Les superpositions d'état remettent par ailleurs en cause l'idée d'objets bien définis ou invariants. De même, nous avons vu dans des articles précédents que le temps était de plus en plus considéré comme une construction ou émergence résultant de circonstances locales.

Pour prendre un autre exemple, il nous semble qu'une pensée telle que la pensée chinoise, fondée sur la relation, est particulièrement adaptée à la gravitation quantique en boucles, qui repose sur le postulat que l'univers est fait de processus et non de choses, entre lesquels s'établissent des relations (7).

Ceci ne veut pas dire qu'il faille en revenir à des approches mystiques du monde, tel que le font certains physiciens d'esprit New Age. Cependant, on peut penser que les physiciens et cosmologistes chinois devraient se trouver plus à l'aise que ceux de leurs collègues occidentaux encore attachés au réalisme, quand ils se confrontent aux nouvelles approches scientifiques découlant des découvertes contemporaines.

 

Notes
(1) Par le terme d'écart, l'auteur veut marquer une différence sensible entre la pensée occidentale et la pensée chinoise, mais il ne veut pas affirmer une différence qui risquerait d'être comprise comme irréductible.
(2) Certains préféreront parler de « la Chine de toujours ».
(3) Nous dirions plutôt que l'on ne verbalise pas, car intuitivement sans doute on perçoit, avec le langage du corps par exemple.
(4)Selon Wikipedia, source à laquelle nous nous limiterons dans cet article, le Tao est la force fondamentale qui coule en toutes choses dans l’univers, vivantes ou inertes. C'est l’essence même de la réalité et par nature ineffable et indescriptible. Il est représenté par le tàijítú, symbole représentant l’unité au-delà du dualisme yin-yang soit respectivement l'entropie négative et positive. Le Tao a été édifié ou systématisé dans le texte Tao Tö King attribué à Lao Tseu. http://fr.wikipedia.org/wiki/Tao. Nous reviendrons sur l'abus, selon nous, du concept de Tao fait depuis une trentaine d'années par les mysticismes et sectaires occidentaux, ainsi que sur les emprunts qu'en ont fait certains physiciens quantiques, tels Fritjof Capra, Le Tao de la physique, 1994.
(5) Ces attributs sont de nous.
(6) Voir http://www.mugur-schachter.net/
(7) Voir nos articles concernant Lee Smolin
http://www.automatesintelligents.com/biblionet/2002/oct/smolin.html
http://www.automatesintelligents.com/biblionet/2007/juil/troublewithphysicshtml.htm

Repost 0
9 janvier 2011 7 09 /01 /janvier /2011 16:13

par Jean-Paul Baquiast et Christophe Jacquemin 09/01/2011


Nous ne nous lassons pas ici, comme beaucoup de commentateurs, de signaler les défis que devraient relever les Européens s'ils voulaient – n'hésitons pas à employer le mot – survivre en tant que civilisation dans le monde d'aujourd'hui. Il s'agit par exemple des défis économiques, que produire et comment produire? des défis diplomatiques, comment se comporter face aux superpuissances ? des défis politiques et sociaux, comment réduire les différences entre les riches et les pauvre? des défis philosophiques, comment ne pas se laisser entraîner dans de nouvelles guerres religieuses? des défis institutionnels, comment sortir par le haut de l'état de paralysie généré par l'actuel non-constitution européenne?


Face à tous ces défis, c'est plutôt un constat d'impuissance qui vient à l'esprit. Les remèdes que l'on peut envisager supposeraient une telle mobilisation des citoyens, une telle volonté d'agir ensemble en vue d'objectifs communément approuvés, que l'on ne voit pas d'où et de qui pourraient venir les décisions salvatrices. Les divisions et dans une large mesure l'indifférence des citoyens européens ne laissent pas espérer de solutions rapides. Nous sommes certes pour notre part persuadés que si l'Union européenne par une sorte de miracle se dotait d'un statut d'Etat fédéral fort, les débats politiques que susciteraient les politiques fédérales à mettre en oeuvre permettraient aux Européens de sortir de leur atonie. Mais pour le moment nous n'en sommes pas là.

Voici pourtant en ce début d'année 2011 deux autres défis d'importance, deux immenses défis, que devraient relever les Européens. Ils sont très différents mais ne peuvent être traités par des haussements d'épaule. Le premier concerne le désordre grandissant dans lequel semble s'enfoncer l'Afrique, trop voisine de l'Europe pour que nous puissions nous en désintéresser. Le second vient de la montée d'extrêmes-droites très proches des anciens fascismes qui avaient fait le malheur de l'Europe. Elles émanent de partis qui comme celui du premier Ministre hongrois, ne supportent pas le minimum de liberté et de contre-pouvoirs étant ces dernières années apparus (fragilement d'ailleurs) dans les grandes démocraties européennes.


Dans les deux cas, nous pensons que l'indifférence des citoyens confrontés à ces deux défis (à ces deux considérables risques pour parler clairement), sera mortelle pour l'Europe et les Européens. Les risques sont très différents. L'un peut paraître extérieur, l'Afrique n'est pas l'Europe. L'autre est tout à fait interne, comme l'est le ver dans le fruit. Faut-il les mettre au même niveau et envisager que les Européens envisagent à leur égard des solutions communes?


Il est certain que le drame de l'Afrique, de plus en plus mal partie contrairement à ce que prétendent les défenseurs du néolibéralisme, intéresse d'abord les Africains. Mais l'Afrique est à quelques kilomètres de l'Europe. Des échanges notamment démographiques se sont établis depuis longtemps entre les deux continents. Pouvons nous rester indifférents à ce qui se passe actuellement, dont la liste complète serait trop longue à établir ici: révolte croissante des populations au Maghreb, terrorisme et banditisme gangrénant les pays du Sahel, risques de guerres civiles en Côte d'Ivoire et peut-être dans les Etats voisins, néocolonialisme qui ne se cache même pas provenant des Américains et des Chinois autour des richesses minières et énergétiques dont sont dotés certains pays, montée d'un islamisme radical qui se répand partout – y compris en Europe évidemment. Prendre argument de la relative bonne santé de l'Afrique du Sud pour penser que les quelques 1.200.000 Africains sont en voie de décollage serait une illusion.


La situation de l'Afrique, autant d'ailleurs que l'on puisse bien la décrire faute de toutes les informations suffisantes, paraît si inextricable que la tentation pour les Européens de s'en tenir écartés en s'enfermant à l'intérieur de leurs frontières sera plus grande que jamais. Mais nous l'avons dit, l'Afrique et l'Europe sont étroitement liées pour des raisons géopolitiques et humaines. Impossible de n'en pas tenir compte. Mais que faire? Un premier réflexe serait précisément de se poser la question d'une façon plus qu'insistante: que faire, étant entendu que l'on ne peut pas ne rien faire? Que faire? Il serait temps d'y réfléchir ensemble.


Vis-à-vis de ce qu'il faut bien nommer les résurgences de type fascisme se répandant dans la plupart sinon tous les pays européens, on pourrait aussi être tentés par la fuite dans l'indifférence, découlant elle-même de l'impuissance. On ne peut évidemment en revenir au communisme, non plus qu'à l'atlantisme béat, non plus qu'à un devoir d'indignation à la Stéphane Hessel qui peut cacher une grande démission collective.


Les optimistes diront que le problème actuellement soulevé par la Hongrie est mineur. Il suffira de remontrances des institutions pour faire revenir dans la norme communautaire les quelques excités provenant de ce vieux coeur de l'Europe impériale. Nous pensons qu'il n'en serait rien. La tentation du pire est vivante en chacun d'entre nous. Après tout, commencent à penser les plus raisonnables d'entre nous, Viktor Orban ou ses pareils en Europe, dont le FN en France, ont raison. Il faut régresser volontairement, vers les anciens nationalismes, les anciennes querelles de territoires et de frontières, l'abandon de tout effort d'approche scientifique des difficultés. Des milices en uniforme feront très bien l'affaire pour cela. Face par exemple à l'offensive de l'intégrisme musulman qui verrait cette radicalisation d'un bon oeil, les braves gens que nous sommes finiront par applaudir.

 

La tentation de ne rien faire face aux drames de l'Afrique, de laisser opérer des milices nationalistes en Europe, d'attendre plus généralement que le Système (?) ne s'écroule de lui-même, devrait constituer, nous y revenons ici pour notre part, un risque si mortel que la refonte immédiate du statut constitutionnel de l'Europe, afin d'en faire un Etat fédéral puissant et non comme aujourd'hui un paquet de chiffes, devrait devenir la priorité de tous en ce début de 2011. Sans un tel outil au plus tôt, rien ne sera possible.

Repost 0
17 décembre 2010 5 17 /12 /décembre /2010 15:35

 

 

Discours sur l'origine de l'univers
Flammarion

Commentaire sur le mode "A propos de"
par Jean-Paul Baquiast

 

Considérations sur la connaissance. A propos du dernier livre de Etienne Klein.
On fait beaucoup d'hypothèses sur le monde à connaître, et pas assez sur la machine à connaître


Tout est affaire de décor
Changer de lit, changer de corps
A quoi bon puisque c'est encore
Façon de n'y comprendre rien
d'après Louis Aragon

« Non, l'univers n'existe pas, non plus que le vide quantique, ces deux conundrums situés aux deux extrémités de la physique, dont le langage scientifique a créé le nom et que l'observation s'épuise à visualiser, que la raison s'épuise à comprendre ».

C'est la conclusion que selon nous un lecteur prudent devrait tirer de la lecture de l'excellent livre de Etienne Klein, Discours sur l'origines de l'Univers (Flammarion 2010), faisant suite à trois ou quatre autres essais du même auteur portant sur la physique et la cosmologie, tout aussi excellents. L'ouvrage, très pédagogique, recense toutes les hypothèses présentées depuis l'Antiquité et singulièrement depuis quelques années pour essayer de comprendre les fondements du monde physique.


Très honnêtement, l'auteur avoue que ces hypothèses, faute de pouvoir être mises à l'épreuve de l'expérimentation instrumentale, ne répondent pas aux questions que la raison humaine prétend devoir se poser à propos de l'univers. Ceci ne signifie pas que nous suggérerions au lecteur de ne pas lire cet ouvrage ou d'autres analogues. Au contraire. Il faut le lire d'urgence, et s'en pénétrer. C'est seulement que nous nous demandons si une autre démarche, éventuellement parallèle, ne serait pas aujourd'hui indispensable ? En fait, nous pensons que cette autre démarche s'impose déjà d'elle-même, car elle découle de la marche inexorable de l'évolution. Un des mérites, peut-être involontaire, du livre, serait selon nous de la suggérer.

Qu'est-ce à dire? Nous pensons pour notre part que la science progresserait plus vite si elle s'interrogeait, non pas sur les confins ultimes du monde extérieur, qu'elle ne peut observer et moins encore rationaliser, mais sur ses propres processus d'acquisition de connaissance. Mais cela ne signifierait pas en revenir aux croyances et aux mythologies, en une nième nouvelle démarche digne d'un adversaire de la rationalité scientifique.

Nous proposons seulement ici une réflexion s'appuyant sur ce que semblent illustrer les millions d'années d'évolution biologique au cours desquels les cerveaux des animaux leur ont permis de s'adapter à leur milieu et de s'y développer. On devra y ajouter aujourd'hui un nouveau domaine de réflexion, inspiré de la robotique dite elle aussi évolutionniste. Cette dernière montre comment des robots autonomes, plus particulièrement quand ils agissent en groupe, acquièrent ce que l'on nomme des cartes de leur monde suffisamment riches en connaissance pour qu'ils puissent y survivre. Ceux qui dans les décennies prochaines, bien avant les humains, arpenteront seuls les sols effrayants des planètes proches, en feront la démonstration, n'en doutons pas.

Les systèmes cognitifs


A partir de ces deux séries d'observations, relevant de la science expérimentale la plus classique, il est possible d'élaborer le concept de système cognitif (cognitive system en anglais) . Qu'est-ce qu'un système cognitif ? (cf. J.P. Baquiast, La robotique, J.P. Bayol, à paraître).


Nommons système cognitif un organisme biologique ou artificiel doté d'un corps aux frontières physiques bien définies lui permettant de se distinguer de son environnement. Ce corps communique avec l'extérieur par des organes sensoriels et par des membres, que la robotique préfère nommer des capteurs et des effecteurs, ou organes E/S (pour entrée-sortie). Il dispose par ailleurs d'un réseau interne de transmission, de traitement et de mémorisation des impulsions généralement électriques circulant entre les organes E/S. Dans les deux domaines de la biologie et de la robotique, on pourra utiliser pour désigner ce réseau le terme de système nerveux, ainsi que celui de cerveau pour représenter ce qui en constitue l'unité centrale.


Mais pourquoi parler de système cognitif? Parce que le système nerveux et surtout le cerveau conservent et organisent la mémorisation symbolique des informations produites par les E/S au fur et à mesure que le corps interagit avec son environnement. Il n'existe rien de tel dans les organismes vivants qui se sont construits selon d'autres logiques, par exemple les végétaux, ni rien de tel non plus dans les machines électroniques plus simples, comme les calculateurs. Le système nerveux et le cerveau, que nous désignerons désormais par les termes de système nerveux central ou mémoire centrale (MC), reçoivent en permanence des informations provenant des E/S. La plupart de celles-ci disparaissent. La MC ne conserve que celles présentant une certaine régularité, un certain caractère répétitif. Nous les nommerons ici des contenus cognitifs ou connaissances puisque leur ensemble résume l'expérience de l'interaction avec le monde extérieur résultant de l'activité des organismes.


Le modèle informatique du processus d'acquisition de connaissances ainsi utilisé est bien connu. Il s'appelle « réseau de neurones formels ». On parle là de neurones parce que, globalement, dans le corps biologique, les architectures durables entre neurones s'organisent selon un processus voisin. Lorsqu'un organisme, qu'il soit biologique ou artificiel, interagit régulièrement avec une entité ou « objet » du monde extérieur, par exemple un animal ou un meuble, sa MC en construit une représentation symbolique. Nous parlerons aussi de connaissances ou de cognitions relatives à cet objet. Chaque cognition correspond (nous simplifions) à la moyenne des perceptions relatives à l'objet considéré. La MC accumule ainsi de nombreuses cognitions, puisque l'organisme interagit en permanence, dans le cours de son développement, avec un monde empli d'objets nombreux et complexes.

Dans cette première façon de se représenter les cognitions, il faut insister sur le fait qu'elles sont expérimentales ou à base d'expériences. Autrement dit, elles proviennent des interactions que l'organisme entretient avec son milieu, grâce à ses E/S. Elles ne proviennent pas de nulle part, contrairement à celles que parallèlement peut générer la MC travaillant en boucle sur elle-même. Dans ce dernier cas, la MC, système complexe en partie auto-entretenu, produit de nombreuses représentations fictives, n'ayant pas de liens directs avec l'extérieur et qui viennent en conflit avec celles venant de l'extérieur. Généralement, chez l'animal tout au moins, ces représentations fictives sont balayées par celles résultant de l'interaction avec le milieu. Ce sont seulement ces dernières qui sont conservées, parce qu'elles contribuent à la survie de l'organisme.

On peut donc dire que les cognitions issues de l'extérieur dressent, au sein de la MC de l'organisme, une représentation globale ou paysage symbolique du milieu ou de l'environnement. Il s'agit du milieu, non tel qu'il serait s'il était perçu par un tiers ou tel qu'il serait en soi, mais tel qu'il est perçu par l'organisme. Ceci n'est pas étonnant. L'organisme ne peut connaître son milieu qu'à travers les perceptions que lui en donnent ses E/S. C'est par conséquent le seul milieu susceptible de l'intéresser.

A quoi servent les cognitions?


Elles servent d'abord à identifier et classer les E/S reçues par l'organisme. Les E/S qui correspondent à un objet déjà mémorisé servent à compléter ou modifier la cognition relative à cet objet. Le système apprend ainsi qu'un animal peut être plus ou moins agressif, qu'un obstacle peut être plus ou moins solide. Celles qui sont originales, c'est-à-dire qui correspondent à la perception d'un objet jamais rencontré jusqu'alors, sont mises en mémoire temporaire, avant d'être transformées en une cognition nouvelle si elles se répètent. Lorsqu'il reçoit une perception qu'il ne peut pas immédiatement rattacher à un objet déjà identifié, l'organisme doit lever le doute. Rester dans l'incertain pourrait être dangereux.


Pour ce faire, il fait appel à un processus d'une grande importance méthodologique: il formule des hypothèse selon une méthode que nous pouvons qualifier d'expérimentale. La perception se rattache-t-elle à une cognition déjà mémorisée et connue, ou non? L'organisme met à l'épreuve les hypothèses formulées en réponse à cette question. Dans ce but il fait appel à de nouvelles opérations d'E/S. En fonction du résultat des expérimentations auxquelles il a procédé pour tester ces hypothèses, il en tire des déductions qui viennent compléter sa connaissance globale du monde. On parle de méthode hypothético-déductive 1). 


Rappelons que ce que nous venons de décrire concerne l'acquisition de connaissances par n'importe quel système cognitif biologique ou artificiel présentant les caractères que nous avons précisés en introduction. Mais plus ces systèmes cognitifs sont riches en termes de capacités des E/S et de la MC, plus le processus d'acquisition, de mise en forme puis de mémorisation des connaissances se perfectionne.


L'un des progrès ainsi enregistré au cours de l'évolution consiste en l'acquisition de la capacité d'évoquer le contenu de la connaissance par l'affectation d'un symbole ou étiquette permettant à la MC de le reconnaître et le manipuler sans délais. Il s'agit d'une technique indispensable à toute activité de gestion de données, consistant à « nommer », c'est-à-dire donner des noms spécifiques aux objets ou aux classes d'objets. Ce besoin de nommer apparaît particulièrement grand à l'occasion des échanges entre systèmes cognitifs. Il a suscité des solutions spontanées au sein des groupes d'animaux. Un cri ou une posture déterminée peuvent signaler spécifiquement tel danger. On constate que, dans l'acquisition de connaissances au sein de robots interagissant en groupe, des raccourcis identiques finissent par être sélectionnés.


Ainsi naissent les langages. Mais ceux-ci ne se bornent pas à faciliter la diffusion et la mise en réseau des connaissances acquises par les systèmes cognitifs. Ils comportent aussi des symboles ayant valeur d'ordres à faire ou ne pas faire telle ou telle action: par exemple se regrouper pour repousser un prédateur. Autrement dit, les contenus de connaissance acquis au cours de l'interaction des systèmes cognitifs avec leur environnement se traduisent très vite par des modifications de cet environnement. Les systèmes utilisent dans ce cas leurs organes d'E/S pour se construire des environnements plus favorables à leur survie. On peut employer le terme de « construction de niches ». On dit qu'il s'agit de processsus "constructifs" ou "constructivistes". Avec la prolifération de l'espèce humaine, le visage de la Terre tout entière a été transformé par de telles constructions.


Les systèmes cognitifs les plus récents dans l'histoire de l'évolution ne se sont pas seulement distingués par l'acquisition des langages. Ils ont aussi acquis des formes d'auto-observation relevant de ce l'on nomme la conscience. Les bons résultats au service de la survie découlant de la multiplication d'observations du monde extérieur à partir d'E/S de plus en plus perfectionnées ont provoqué l'amélioration des outils tournés vers l'observation de l'intérieur. Ceux-ci permettent aux systèmes cognitifs de se représenter eux-mêmes, autrement dit de devenir, au moins partiellement, auto-cogitifs.


Ils ont d'abord appris à utiliser plus efficacement les capteurs endogènes dont l'évolution les avait dotés afin de signaler certains états internes à risque et provoquer des actions régulatrices. Parallèlement, ils se sont trouvés équipés, sous la forme notamment des neurones associatifs du cortex, de capacités pour explorer et synthétiser ceux des contenus de leurs mémoires qui tout en provenant de l'extérieur modifient ou peuvent modifier la représentation de soi que le sujet s'est donnée en interne. Ils ont pu ainsi commencer – très marginalement encore il est vrai - à rassembler de façon cohérente toutes les connaissances pouvant leur permettre de compléter l'image endogène par une image exogène, c'est-à-dire de leur propre moi dans le monde global.


Ces images génèrent des informations utiles pour le pilotage coordonné de ce moi, dans le présent ou pour le futur. Les ensembles coordonnées d'informations et d'ordres en découlant contribuent à former ce que l'on nomme soit la conscience primaire, soit la conscience supérieure. Dans ce dernier cas, le système génère des informations sur lui-même et son environnement qui constituent à elles seules un monde global virtuel au sein duquel le moi apparaît comme une sorte d'avatar. Il s'agit alors de paysages et situations sans rapports immédiats avec l'environnement ou le moi réel., permettant donc de se détacher de la contrainte du présent.


La conscience supérieure ne se manifeste dans le règne animal, en dehors des humains, que par courts instants. Les roboticiens espèrent par contre que les robots de demain pourront s'en doter spontanément. Il va de soi que les contenus de connaissances relatifs à la vision que les systèmes cognitifs ont d'eux-mêmes, c'est-à-dire les contenus de conscience, sont tout autant sinon davantage sujets aux erreurs que les contenus de connaissance relatifs au monde extérieur. Dans tous les cas, les organes d'E/S sont potentiellement faillibles. Nous en dirons un mot en fin d'article.


Les contenus de connaissance acquis par les systèmes cognitifs n'ont d'intérêt pour la survie que s'ils reflètent le plus fidèlement possible le monde extérieur, avec ses avantages et ses risques. Ainsi il ne faut pas confondre un fruit comestible avec un fruit empoisonné, ni dans le cas d'un robot un pied de table fixé au sol avec le pied d'une petite chaise susceptible d'être déplacé. Les systèmes cognitifs ont donc développé de nombreuses stratégies leur permettant de mettre à l'épreuve ce que l'on pourra nommer la vérité de leurs connaissances. La plus efficace aujourd'hui est considérée, au niveau collectif, comme relevant de la démarche scientifique expérimentale déjà nommée, dont les résultats sont désormais publiés au sein de réseaux mondialisés. Les animaux, sans atteindre un tel niveau de sophistication, avaient depuis fort longtemps engagées des procédures de même nature, dans le cadre de ce que l'on pourrait nommer des comportements préscientifiques empiriques. Il n'est pas impossible que les robots les plus performants du futur s'inscrivent eux-aussi spontanément dans les réseaux de connaissance. Ils y apporteront leur propres points de vue sur eux-mêmes et sur le monde, y compris sur les humains. .


Les limites de la « vérité »


La science expérimentale permet ainsi aux systèmes cognitifs de délivrer ce que l'on pourrait appeler des certificats de vérité ou de véracité s'appliquant à leurs connaissances relatives au monde extérieur. Il est ainsi décrété vrai que tel aliment est mortel et tel autre innoffensif, au vu des nombreuses expériences ayant permis de fonder ces affirmations. Mais on voit le risque attaché à une telle recherche utilitaire de la vérité. Le langage prendra l'habitude de confondre une vérité pour soi (pour tel système cognitif, dans telles conditions) avec une vérité en soi ou absolue, pour tout le monde, tout le temps et partout. En amont, le même risque s'attache au fait même de nommer les objets. Il s'agit de ce que la physicienne Mioara Mugur Schächter a nommé le piège du Réalisme 2) Si le système identifie en les regroupant dans une classe unique, intitulée l'arbre, un certain nombre d'arbres différents dotés de noms spécifiques, il sera tentant d'imaginer par commodité que le terme d'arbre renvoie à un être en soi, existant lui aussi dans le monde, d'une façon non immédiatement accessible à l'expérience, mais néanmoins susceptible de faire l'objet, soit de réflexions philosophiques, soit de constructions mythologiques. L'arbre sera devenu une Réalité dans le monde de l'essentialisme.


Plus généralement, comme nous l'avons indiqué plus haut, l'expérience montre que les systèmes cognitifs dotés de MC fécondes, autrement dit de cerveaux particulièrement riches et productifs, génèrent par une sorte de turbulence auto-activée des représentations du monde de plus en plus éloignées des acquis de l'expérience. On parle d'imaginaires, religieux, poétiques ou fantasmatiques. Ceux-ci peuvent entraîner des bénéfices pour la survie, pousser par exemple à explorer de nouveaux territoires dans le monde physique ou mental. Mais ils peuvent aussi générer des conduites à risques, se traduisant par ce que l'on nommera pour simplifier le déni de réalité.


Les outils sensoriels utilisés dans la pratique expérimentale courante servent souvent de prétextes à la construction de mondes imaginaires. Or on ne peut voir que ce que les yeux peuvent voir, au terme d'une longue évolution orientée par les besoins utilitaires de la survie. Il en est de même des autres organes d'E/S. Les prothèses artificielles accroissent considérablement la portée des organes naturels, mais elles-mêmes atteignent très vite leurs limites, face à l'infiniment grand ou l'infiniment petit. Il faut se méfier également des aberrations qu'elles peuvent provoquer, du fait de vices de construction ou de mauvais mode d'emploi, l'interprétation l'emportant alors sur l'observation factuelle: on croit voir ce que l'on a inconsciemment envie de voir 3) Les aberrations collectives sont aussi nombreuses et persistantes que celles imputables à des observateurs individuels. Dans ces cas, particulièrement pernicieux, ce sont des mondes en grande partie crées par les fantasmes qui font l'objet des commentaires des savants.


Il en est de même des cerveaux. Aussi souples et adaptatifs soient-ils, ils ne peuvent se représenter des situations ou des entités que le monde biologique n'a jamais eu l'occasion de rencontrer. Si par hasard ils se trouvaient confrontés à des mondes véritablement différents du nôtre, leurs spécificités de construction les empêcheraient de remarquer des objets qui pourtant mériteraient leur intérêt, au regard d'une recherche optimisée de nos meilleures chances de survie.

La même réserve doit être faite à propos des mathématiques. On croit généralement qu'elles peuvent permettre au cerveau de s'affranchir des réalités immédiates pour concevoir et modéliser des univers totalement à l'écart des observations expérimentales, bien que néanmoins susceptibles d'exister. Mais à la suite de quelles expériences vitales les cerveaux humains auraient-ils acquis la capacité de le faire? Les mathématiques, même les plus élaborées, restent encore empreintes des limites ayant marqué les premières opérations de dénombrement et de mesure dans le monde animal.Elles sont liées aux architectures neuronales sélectionnées par l'évolution pour permettre leur reproduction. Les outils mathématiques sont très utiles pour préciser ou simplifier les relations entre les contenus cognitifs et un monde extérieur complexe, ainsi que les discours s'y rapportant. Mais lorsqu'ils traitent d'autres phénomènes que ceux accessibles à l'expérience, pourquoi leur attribuer plus de fiabilité qu'à la simple imagination poétique.


Mieux comprendre un jour les mystères de la physique?


Cependant, pour ouvrir une petite fenètre sur l'avenir, pourquoi ne pas penser que, à la suite d'on ne sait quelle mutation survenue dans les bases neurales de la cognition, les cerveaux humains ne puissent un jour se représenter et comprendre ce qui reste encore pour eux des mystères, entre autres les domaines situés aux limites de la physique expérimentale. Peut-être aussi verra-t-on des prothèses artificielles logiques enrichir les capacités des cerveaux biologiques, à l'occasion de l'apparition d'humains augmentés dits post-humains.


Alors les physiciens qui, actuellement confessent fort honnêtement leur ignorance devant la question des origines de l'univers ou de ce que dissimule le monde infra-quantique (si l'on peut employer cette expression), pourront-peut-être comprendre et expliquer beaucoup de ce qui demeure des mystères pour la science. Mais pour le moment, les systèmes cognitifs auxquels nous appartenons, mêlant étroitement le biologique et le technologique, ceux que je nomme pour ma part des systèmes anthropotechniques 4)  sont loin d'en être là. Mieux vaudrait en ce cas qu'ils ne perdent pas trop de temps à construire des équations risquant de rester à jamais de simples jeux d'esprit. Sans ces équations, dira-t-on, disparaîtraient les incitations à faire davantage de recherches expérimentales. Espérons-le.


Mieux vaudrait cependant, comme nous le recommandons en introduction, chercher à mieux comprendre ce qu'est et ce que pourrait devenir un objet immédiatement ou médiatement à portée de nos instruments d'observation, le cerveau humain aux cent milliards de neurones et au nombre infiniment plus grand de connexions synaptiques potentielles. Selon le professeur Stephen Smith de Stanford, il existe en effet 125 trillions de synapses dans le seul cortex cérébral humain, soit le nombre d'étoiles que comptent 1.500 galaxies comparables à la nôtre. Le cerveau est donc un objet de l'univers, équivalent en complexité à ces 1.500 galaxies. Pourquoi, après avoir acquis, par mutation ou autrement, quelques connexions internes supplémentaires, cet objet ne pourrait-il pas mieux comprendre, de l'intérieur, et au même titre que sa propre logique, la logique de l'univers ?


Rappelons cependant, pour réfréner d'éventuels enthousiasmes suscités par ces perspectives, que les propos que nous avons tenus ici concernant les systèmes cognitifs ne proviennent pas d'un observateur devenu par miracle capable de se situer au dessus du monde de l'expérience. Ils proviennent eux-aussi d'un système cognitif. Celui-ci tente de se représenter lui-même à lui-même, mais il est contraint ce faisant par des limites de fait auxquelles il ne peut échapper, bien qu'ayant une certaine conscience de leur existence.


Notes
1) Sur tout ceci, voir Christopher D. Frith Making up the mind - How Brain Creates our Mental World
http://www.automatesintelligents.com/biblionet/2007/juil/frith.html
2) Voir Miora Mugur-Schächter, notamment Sur le tissage des connaissances Hermès Lavoisier 2006
http://www.admiroutes.asso.fr/larevue/2006/74/mms.htm
3) Voir Journal of neuroscience 8 décembre 2010 Expectation and Surprise Determine Neural Population Responses in the Ventral Visual Stream http://www.automatesintelligents.com/echanges/2010/dec/duke.html
4) Voir Baquiast Le paradoxe du sapiens J.P. Bayol, 2010
http://www.editions-bayol.com/pages/livres-titres/paradoxe.php

Repost 0
12 décembre 2010 7 12 /12 /décembre /2010 17:35

Jean-Paul Baquiast 12/12/2010

Décidément, la question de savoir si et comment quelque chose pourrait apparaître à partir de rien est à l'ordre du jour. Cette apparition bien sûr ne procéderait pas de l'opération du Saint Esprit, mais de processus physiques reproductibles. Dans un article précédent, nous avions signalé ici les hypothèses d'un physicien et d'un biologiste pour qui des états extrêmes de la matière, dits de la matière condensée, pourraient faire émerger au sein de l'univers des formes physiques capables de se répliquer (et sans doute aussi de muter) sans faire appel, au moins dans un premier temps, aux composés de la chimie organique développés par la vie biologique terrestre.

Les recherches relatées ci-dessous vont encore plus loin. Elles sont présentées comme une véritable petite révolution théorique (theoretical breakthrough). Un point intéressant, pour nous Européens, est qu'elles impliquent, bien que menées principalement aux Etats-Unis, des physiciens français. De quoi s'agit-il ?

Les auteurs du papier présenté par les Physical Review Letters et référencé ci-dessous n'ont pas réalisé un dispositif expérimental concret qui permettrait de tester leurs idées. Il s'agit seulement d'un modèle théorique. Mais comme on le verra, il pourrait être mis à l'épreuve dans des conditions accessibles. Nous sommes loin des théories mathématiques intestables qui foisonnent dans la physique et la cosmologie théorique, autour notamment de la théorie des cordes.

Selon les auteurs, en utilisant un rayon laser de très forte intensité et un accélérateur linéaire de deux miles de long, il serait possible de créer quelque chose à partir de rien. Leurs équations montrent comment un flux d'électrons hautement énergétiques propulsé par un puissant laser pourrait faire apparaître la matière et l'antimatière inclues dans ce que les physiciens nomment faute d'autre terme plus adéquat le vide. Ce vide est si peu vide que dissocié par le rayon laser mentionné, il peut générer des paires de particules et d'antiparticules, c'est-à-dire de la matière à proprement parler.


Rappelons que les électrons de haute énergie sont ceux émis par une source elle-même très énergique, par exemple une lampe à arc comparée à une lampe de poche. Quant au laser, "Light Amplification by Stimulated Emission of Radiation" il s'agit d'une source émettant une lumière monochromatique, très directionnelle et dont les faisceaux sont quasi parallèles. On peut la guider sur de longues distances et la concentrer (grâce à des lentilles ou tout autre dispositif analogue) pour obtenir de très grandes puissances.

Un des auteurs de l'article et responsable de la recherche, Igor Sokolov, annonce qu'il est dorénavant possible de calculer comment plusieurs centaines de particules peuvent être produites à partir d'un seul électron. On suppose que c'est ce qui se passe dans l'univers autour des pulsars et des étoiles à neutrons. Pour comprendre cela, écrit Sokoloff, il faut se persuader que le vide, ou le rien, ou le néant, n'est pas vide. Comme l'avait prédit le physicien théoricien Paul Dirac (photo ci-dessus), il résulte d'une combinaison très dense de matière et d'antimatière, de particules et d'antiparticules.

Les particules composant l'antimatière ont des charges opposées à celles des particules jouant le même rôle dans la matière. La matière comprend les protons, positifs, et les électrons, négatifs. L'antimatière comprend donc les antiprotons, négatifs, et les antiélectrons (ou positrons), positifs. On trouve aussi des particules d'antimatières de charge nulle (par exemple les antineutrons). Dans le modèle standard des particules élémentaires, à chaque particule correspond une antiparticule. Une particule élémentaire de charge nulle peut être sa propre antiparticule : c'est le cas du photon. Les particules de matière et d'antimatière s'annihilent lorsqu'elles entrent en contact dans les conditions ordinaires. Elles sont alors intégralement converties en énergie radiative (deux photons) suivant le total des masses en interaction (conformément à la formule E=mc2 )

Dans le vide de Paul Dirac, la densité des particules et antiparticules est considérable. On ne peut les distinguer les unes des autres car leurs effets observables, tenant notamment à leurs annihilations, s'additionnent. Par contre, dans un fort champ électromagnétique, leurs interactions peuvent être la source d'émission de nouvelles particules observables, des photons gamma de très haute énergie, pouvant produire des électrons et positrons supplémentaires.

Une expérience conduite dans un accélérateur de particule à la fin des années 1990 avait permis de générer à partir du vide des photons gamma et quelques paires électron-positron occasionnelles. Les nouvelles équations proposées par les chercheurs montrent, en s'appuyant sur ces résultats, comment un fort champ laser pourrait provoquer la création d'un plus grand nombre de particules que celles injectées dans l'accélérateur.

Si, selon Sokolov, un électron peut se transformer en 3 particules dans un très court laps de temps, cela prouve qu'il n'est pas un électron tel que défini par la théorie actuelle. Selon cette dernière, il serait condamné à rester un électron quoiqu'il arrive. Ce qui ne serait plus le cas en application des équations proposées, puisque un électron à forte charge électrique se révèlerait composé de trois particules additionnées d'un certain nombre de photons.

Des retombées philosophiques considérables

Les chercheurs ont proposé de développer un instrument permettant de mettre ces équations en applications à très petite échelle. Il s'agirait d'un laser de type HERCULES (University of Michigan Center for Ultrafast Optical Science) considéré en 2008 comme le plus puissant du monde. Il devrait être associé à un accélérateur de particules tel que celui dont dispose le Standford Linear Accelerator Center (ou SLAC National Accelerator Laboratory).

Un accélérateur linéaire, comme son nom l'indique, accélère les particules dans un très long couloir et non dans un cercle, comme le fait le LHC européen. Le projet d'un tel très grand accélérateur linéaire a été présenté par les physiciens des particules. Mais il faudrait pour le réaliser réunir un consortium d'Etats qui n'a pas pu encore être constitué. On le comprend. Le soutien aux banques est d'une toute autre urgence.

Quoiqu'il en soit, bien qu'elle soit de bien moindre coût, l'installation proposée par les auteurs de l'article n'est pas actuellement prévue. Elle pourrait cependant avoir des applications industrielles nombreuses, notamment dans le domaine de fusion atomique par confinement. Mais si les résultats des expériences confirmaient les hypothèses théoriques, ses retombées en physique théorique et même dans la perception philosophique de l'univers seraient d'une toute autre importance. Une réponse pourrait enfin être apportée à la question des origines de l'univers: comment le Tout a-t-il pu provenir de Rien.

Nous allons présenter prochainement le dernier ouvrage du physicien Etienne Klein qui aborde cette question: (« Discours sur l'origine de l'univers », Flammarion. 2010) . Il y montre comment les croyances traditionnelles concernant le Big Bang sont actuellement profondément remises en cause et actualisées. Resterait cependant à démontrer expérimentalement comment du vide, ou plutôt du plein initial, pourrait provenir la matière ordinaire, celle dont nous sommes tous composés, celle dont d'éventuels entités vivantes extraterrestres pourraient sans doute aussi être composées. Il seraitégalement possible dans ce cadre d'imaginer comment pourraient apparaître et se développer, éventuellement dans notre propre galaxie, des mondes composés entièrement d'antimatière.

C'est pour répondre à de telles questions qu'il apparait urgent de mettre en place le dispositif suggéré par les auteurs de l'article, même se ceci devait exiger des dépenses de quelques millions de dollars.

Pour en savoir plus sur les auteurs:
* Igor Sokolov, Space Physics Research Laboratory, University of Michigan, Ann Arbor, Michigan 48109, USA
* Natalia Naumova, Laboratoire d’Optique Appliquée, UMR 7639 ENSTA, Ecole Polytechnique, CNRS, 91761 Palaiseau, France
* John Nees, Center for Ultrafast Optical Science and FOCUS Center, University of Michigan, Ann Arbor, Michigan 48109, USA
* Gérard Mourou, Institut de la Lumière Extrême, UMS 3205 ENSTA, Ecole Polytechnique, CNRS, 91761 Palaiseau, France

Références
* Phys. Rev. Lett. 105, 195005 (2010) Pair Creation in QED-Strong Pulsed Laser Fields Interacting with Electron Beams
http://prl.aps.org/abstract/PRL/v105/i19/e195005
* Voir aussi http://ns.umich.edu/htdocs/releases/story.php?id=8167

Repost 0
11 décembre 2010 6 11 /12 /décembre /2010 16:36


Jean-Paul Baquiast 11/12/2010


Image. Simulation d'un mitraillage au sol (source www.simulation-france-magazine.com/)

Deux thèses s'opposent généralement concernant le rôle du sujet dans l'interprétation de ce qu'il perçoit sensoriellement. Pour la première thèse, les sujets ont tendance à percevoir ce que pour des raisons diverses ils s'attendent à percevoir ou ont envie de percevoir. Pour la seconde thèse, les sujets sont généralement sans opinions préconçues. Ils sont donc ouverts à ce que leurs sens leur font percevoir, même si ces perceptions contredisent leurs opinions préalables. On peut soulever la question quel que soit le message sensoriel perçu (image, son...) et quels que soient les domaines d'intérêt en cause (philosophie, politique, sentiments, etc. ).

Inutile de dire que la première thèse est la plus répandue. La plupart des psychologues et cogniticiens considèrent que l'esprit n'est pas une page blanche, ni à la naissance, ni ensuite dans la vie (blank slate). Chaque cerveau s'est doté au long de son existence d'un stock de plus en plus riche de données et d'interprétations mémorisées, auquel il fait appel pour interpréter ce qu'il perçoit et s'en servir pour définir de nouvelles opinions ou de nouveaux comportements.

Ce « poids du passé » ou de l'expérience acquise est tel qu'il peut conduire certains sujets à interpréter de façon totalement contraire à l'expérience commune telle ou telle donnée nouvelle. Il peut même conduire certains à la refuser complètement, dans un véritable déni de réalité. Bien évidemment, si ces interprétations subjectives a priori se révèlent systématiquement en contradiction avec de nouvelles perceptions, le cerveau du « négationniste » finit en général par se résoudre à modifier son point de vue.

Mieux vaudrait cependant faire preuve d'emblée de ce que l'on nomme dans le langage courant l'ouverture d'esprit face aux perceptions ou aux idées nouvelles. Il s'agit d'un facteur essentiel d'adapatabilité et de survie. Sinon, les individus et les groupes resteraient enfermés dans des comportements incapables d'évoluer. Mais l'ouverture d'esprit n'est-elle pas contre nature, autrement dit un voeu hors d'atteinte, parce que contraire à la faon dont le cerveau se comporte aux niveaux le plus élémentaire des neurones du cortex ?

Pour répondre à cette question, il est intéressant d'observer, en utilisant les ressources les plus récentes de l'imagerie cérébrale fonctionnelle, comment se comportent les cerveaux de sujets volontaires confrontés à de nouveaux messages sensoriels. C'est ce que viennent de faire des chercheurs de la Duke University, dans le cadre d'une étude pilotée par le cogniticien Tobias Egner dont les résultats viennent d'être publiés. Selon des observations utilisant l'imagerie fonctionnelle par résonance magnétique (f/MRI), l'équipe est conduite à proposer un changement de paradigme concernant la façon dont procèdent les neurones visuels du cerveau confrontés aux perceptions provenant de l'appareil visuel. Les auteurs proposent de remplacer ou tout au moins de compléter le concept jusqu'alors le plus utilisé, celui de « détection des caractères » (feature detection) par celui de « codage - ou décodage - prédictif »  (predictive coding).

Concrètement, ceci signifie que les neurones visuels développent en continu des prédictions relatives à l'interprétation ou à l'utilisation de ce qu'ils perçoivent, quitte à modifier les suppositions se révélant erronées si de nouvelles perceptions se montrent en contradiction avec les premières interprétations. L'expérimentation a ainsi montré que lorsque des sujets s'attendent à percevoir un visage, ils mettent plus de temps que ceux ne s'y attendant pas à distinguer l'image de ce visage de celle de l'image d'un immeuble – et réciproquement.

Le rôle important du décodage prédictif

Much ado for nothing, beaucoup de bruit pour rien, dira-t-on. N'est-ce pas ce que l'on pouvait effectivement supposer? L'étude de la Duke University n'est pas cependant inutile, au contraire. Elle conduit à une conclusion plus générale, qui éclaire la façon dont le cerveau travaille. Nos neurones prédisent et « publient » ce que nous voyons avant que nous n'ayons pris conscience de l'avoir vu. Il s'agit d'un processus dit top down, s'opposant au processus jusqu'ici couramment admis dit bottom up. Les neurones visuels traitent les informations provenant de la rétine à travers des couches hiérarchisées. Dans le processus bottom up, on suppose que les couches les plus basses détectent d'abord des formes élémentaires, telles que des lignes horizontales ou verticales, avant de les envoyer aux couches supérieures qui les assemblent en figures plus complexes. L'image voyagerait ainsi de couches en couches jusqu'à se présenter sous une forme élaborée interprétable par le reste du cerveau, c'est-à-dire par la conscience du sujet.

Dans le modèle top down au contraire, les neurones de chaque couche élaborent des prédictions relatives à ce que devraient être les images perçues par la couche immédiatement inférieure. Les prédictions sont comparées avec les données entrantes dans les couches inférieures, de façon à éliminer les erreurs de perception ou de prédiction de ces couches. Finalement, selon Egner, une fois éliminées toutes les erreurs de prédiction, le cortex visuel ne conserve que l'interprétation la plus certaine de l'objet perçu, à partir de quoi le sujet voit effectivement cet objet. Le total de l'opération s'exécute de façon inconsciente en quelques millisecondes. Le concept de « codage prédictif » était utilisé depuis plusieurs décennies, mais ce serait la première fois qu'il serait vérifié indiscutablement grâce à la f (MRI). De ce fait serait au moins en partie remis en cause le concept de « détection des caractères ».

Les chercheurs de la Duke Université n'ont pas semble-t-il étendu en termes plus généraux les conclusions que l'on pourrait tirer de leurs expérimentations. En ce qui concerne l'intelligence artificielle, sans avoir la prétention de le faire à leur place, nous pourrions peut-être suggérer l'intérêt d'organiser sur le modèle mis en évidence par Egner la façon dont les cerveaux des robots se construiront des cartes de leur environnement. C'est d'ailleurs semble-t-il ce que font déjà beaucoup de roboticiens.

Dans le domaine plus général de la connaissance, nous pourrions retenir des travaux de la Duke University le fait que le poids attribué aux modèles interprétatifs conservés en mémoire par notre cerveau et utilisés pour donner un sens à de nouvelles entrées sensorielles paraît plus important encore que l'on pourrait spontanément penser. Même si des prédictions erronées se trouvent corrigées en quelques millisecondes par le cortex visuel, on pourrait difficilement exclure que globalement, elles ne puissent entrainer des conséquences sur la façon dont certaines erreurs pourraient être conservées et se propager de proche en proche, fussent-elles progressivement corrigées.

On comprendrait mieux alors comment ce qu'il faut bien nommer des préjugés conduisent le cerveau à donner un sens à ses perceptions puis à ses actions – c'est-à-dire en fait à construire un monde conforme à ces préjugés. Certes, on peut penser que le cerveau saura distinguer à temps un visage humain d'une silhouette de maison lors d'une expérience de laboratoire, mais en sera -t-il de même lorsqu'il s'agira de distinguer un ami d'un ennemi lors du mitraillage d'une troupe au sol à partir d'un avion de combat.

On peut supposer que les mêmes erreurs d'interprétation doivent se produire dans la perception de fragments de discours. Si l'on attend de moi que je tienne un discours belliqueux, sans doute sera-t-on tenté de conférer un sens agressif au moindre de mes propos. Si l'on en conclut trop vite que je suis un homme à abattre, mes chances de survies seront sérieusement compromises.

Références
Journal of neuroscience 8 décembre 2010 Expectation and Surprise Determine Neural Population Responses in the Ventral Visual Stream
Voir aussi:
http://www.dukenews.duke.edu/2010/12/egner_vision.html

 

Repost 0

Articles Récents

Liens