Overblog Suivre ce blog
Administration Créer mon blog

Texte libre


Pourquoi ce blog ?

Cet ensemble de textes a été conçu à la demande de lecteurs de la revue en ligne Automates-Intelligents souhaitant disposer de quelques repères pour mieux appréhender le domaine de ce que l’on nomme de plus en plus souvent les "sciences de la complexité"... lire la suite

Recherche

31 juillet 2011 7 31 /07 /juillet /2011 20:30


par Jean-Paul Baquiast 31/07/2011


Pouvons-nous nous résoudre à considérer que la Grèce est enfermée dans une impasse dont elle ne pourra pas sortir ? Des solutions jusqu'ici refusées pourraient-elles être mises en oeuvre ? La question n'intéresse pas seulement la Grèce, mais beaucoup d'autres pays européens - sans mentionner les pays les plus pauvres du tiers monde.


Pour y répondre, il serait peut-être utile de réfléchir en profondeur à l'évolution des systèmes complexes. Dans un court article ("350 milliards au soleil. Que faire de la Grèce ?"Le Monde, 26/07/2011, p. 16) la consultante économique Sophie de Menthon s'attache à dissiper les illusions qui pouvaient avoir été suscitées par le "sauvetage"décidé le 21 juillet à Bruxelles à l'initiative des chefs d'Etat européens. Dans le même sens, une nouvelle dégradation de la note de la Grèce, annoncée peu après par l'agence Moody's, a montré le peu d'importance attribuée par les marchés à la décision du Conseil européen.


Les arguments de Sophie de Menthon sont a priori indiscutables. Selon elle, les solutions de secours apportées par les Européens à la Grèce ne s'attaquent pas au fond du problème. Aider ce pays à rembourser ses dettes sera improductif, l'argent prêté ne servant pas à investir. Il en sera de même des engagements de rigueur demandés, visant notamment à diminuer certaines dépenses réputées improductives (traitements de fonctionnaires ou dépenses militaires). Le gouvernement ne le fera sans doute pas devant les résistances et à supposer qu'il s'y résolve, cela ne créerait aucune activité nouvelle, au contraire. Par ailleurs l'appel au tourisme est un leurre, les possibilités de ce secteur étant déjà saturées. Enfin l'incivisme et la fraude qui touchent toutes les classes sociales, y compris selon Sophie de Menthon l'église orthodoxe, persisteront. Qui par exemple pourrait imposer le rapatriement des avoirs détournés dans les paradis fiscaux dont le montant serait équivalant à la dette grecque ?

L'inconvénient d'un point de vue pessimiste comme celui de Sophie de Menthon est de n'offrir aucune perspective. Or l'histoire semble montrer qu'il n'existe pas d'impasse définitive, qu'il s'agisse d'un individu, d'une entreprise ou d'une nation. Des solutions finissent toujours par apparaître. Sans cela nous en serions encore à la société des cyanobactéries primordiales. Encore faut-il élargir suffisamment le regard pour ne pas s'enfermer dans un cas particulier. Que pouvons nous suggérer à cet égard :

Le cas grec n'est pas particulier en Europe. Sans mentionner celui de Chypre et de Malte, dont l'agence Moody's vient également d'abaisser la note, il faut rappeler que des régions européennes entières se trouvent dans la situation de la Grèce, c'est-à-dire incapables d'assurer à leur population de véritables emplois productifs. Cela tient aux mêmes causes : insuffisance de l'éducation, omniprésence du chômage, absence d'investissements dans les secteurs innovants, fuite des capitaux et des élites. Il serait à la rigueur concevable que ces régions poursuivent leur mode de vie traditionnel, fondé sur une économie informelle plus ou moins stagnante. Mais il faudrait pour cela que les populations concernées acceptent cette stagnation. Les modèles de consommation imposés aujourd'hui par le marketing des entreprises les en empêchent.


L'impuissance à résoudre les difficultés de ces régions délaissées par les activités productives est la même, qu'il s'agisse de la Grèce ou des autres Etats européens. Les choix politiques de type anglo-saxon imposés à l'Europe par les industries financières interdisent en effet les interventions publiques de réindustrialisation et de développement volontariste, la répression des activités frauduleuses et maffieuses, la protection contre des concurrents tels que la Chine qui refusent de telles interdictions en ce qui les concerne.


Il faudrait donc en bonne logique que les citoyens européens dans leur ensemble acceptent des changements politiques de grande ampleur. L'Europe, si elle se compare par exemple à la Corne de l'Afrique aujourd'hui menacée de famine, dispose d'un grand nombre de ressources potentielles. Mais des changements profonds s'imposeraient pour les valoriser. Nous avons plusieurs fois ici mentionné la marche progressive vers une structure fédérale qui permettrait plus facilement les transferts de revenus et d'activités des régions riches vers les régions pauvres. Nous avons aussi évoqué la nécessité de grands programmes visant à donner à l'Europe les ressources qui lui manquent, par exemple dans le domaine du développement vert, de la protection contre les futures crises environnementales ou de la recherche fondamentale sans obligation de retours immédiats. Dans tous ces domaines, les citoyens grecs seraient aussi capables de productivité que leurs homologues allemands ou néerlandais, à condition que les conditions politiques nécessaires aux transferts de compétences indispensables soient organisées sur le long terme.

Mais, en termes politiques, précisément, la vision nécessaire à un véritable changement de système manque encore. Elle manque d'ailleurs non seulement en Europe mais dans le reste du monde. L'enfermement dans la régression qui caractérise actuellement l'Amérique, les insatisfactions grandissantes manifestées sur l'internet par les citoyens chinois devant le manque de perspectives offertes par le système actuel de développement, pourraient en apporter la preuve.


Que faire alors ?


Nous n'avons pas pour notre part de solutions très originales à proposer... encore que...

A grands maux de grands remèdes. Or il n'y aurait pas plus grand mal que contempler sans réagir les sociétés contemporaines s'enfermer dans l'auto-destruction.

En essayant de comprendre les conditions de la création telle qu'elle s'est manifestée dans le cosmos (ou tout au moins plus modestement sur Terre), on peut constater que les groupes menacés avaient toujours sous leurs yeux les éléments matériels ou les savoir-faire potentiels nécessaires à leur survie. Mais ils ne les voyaient pas. Seuls quelques rares créateurs, capables de faire oeuvre d'invention, ont su les réarranger d'une façon radicalement différente, afin d'en faire les bases pour la construction de mondes absolument nouveaux.

Mais comment procède l'invention ? Il ne suffirait pas de vouloir être inventeur pour le devenir. Emerge-t-elle au sein de cerveaux individuels particulièrement bien armés pour cela ? S'agit-il au contraire de phénomènes collectifs rendus inévitables par la conjonction de certaines conditions dépassant largement les inventeurs ? Nul ne peut le dire aujourd'hui. Mais il serait urgent d'y réfléchir.


Ces considérations paraîtront peut-être un peu loin des échéances dangereuses qui menacent aujourd'hui les Grecs et avec eux les Européens et avec eux le reste du monde. Nous n'en sommes cependant pas si convaincus. A quoi bon la philosophie des sciences et celle des systèmes complexes si elle ne suggérait pas de temps en temps quelques bonnes idées, ou tout au moins certaines des conditions permettant de faire apparaître celles-ci ?


En voici un exemple :


Le type d'informations qui devraient mettre en mouvement
les esprits les plus fermés


La presse relate ces jours-ci, sans s'y attarder, comme s'il s'agissait d'une information anodine, le fait que la majorité républicaine au Congrès des Etats-Unis se prépare à repousser sine die le financement du télescope spatial destiné à succéder à Hubble, le James Webb Space Telescope de la Nasa, http://fr.wikipedia.org/wiki/James_Webb_Space_Telescope, au prétexte que son coût estimé dépasserait le devis initial de $1,6 milliard (et, nonobstant le fait que l'agence spatiale européenne participe au projet). Dans le même temps, l'Einshower Research Project de la Brown University de Providence (Rhode Island) http://www.watsoninstitute.org/eisenhower/ publie un rapport intitulé "Costs of wars" http://news.brown.edu/pressreleases/2011/06/warcosts estimant à 4.000 milliards de dollars les coûts cumulés des deux guerres en Irak et an Afghanistan.


Faut-il rappeler que ces guerres ont été globalement voulues par la même majorité conservatrice qui exige aujourd'hui que l'Amérique non seulement renonce au James Wabb Telescope mais ampute une grande partie de ses budgets de recherche fondamentale. Faut-il également rappeler que les guerres au Moyen Orient n'ont atteint aucun de leurs objectifs annoncés. Elles ont par contre durablement affaiblie la position des Etats-Unis dans le monde. Tout au plus ont-elles permis d'enrichir un certain nombre d'entreprises de défense et de sécurité dont les actionnaires sont les mêmes qui prétendent parler aujourd'hui au nom du bon usage des deniers publics.

A une tout autre échelle, et pour revenir au cas de la Grèce, faut-il rappeler que le montant de la dette publique grecque, estimé à 350 milliards d'euros, est selon certaines analyses équivalent au montant des fraudes fiscales et détournements de la classe dirigeante grecque et de ses complices, mis à l'abri dans les paradis fiscaux.

Par ailleurs la Grèce dispose de plus de deux millions de jeunes dotés de titres universitaires ou de capacités professionnelles confirmées, aujourd'hui sans emplois. Ils pourraient si les moyens leur en étaient fournis s'investir dans des activités de recherche, de développement et de production qui changeraient radicalement les capacités de la Grèce (et de l'Europe) dans le combat pour la maîtrise technologique et intellectuelle dont le monde aura besoin tout au long du siècle actuel. Si les 350 milliards détournés par les spéculateurs grecs étaient mis au service de projets scientifiques et techniques fournissant des emplois aux jeunes chômeurs grecs, cela donnerait à chacun de ceux-ci un modeste capital de quelques 100.000 euros (calculons au plus juste), susceptible d'être utilisés en diverses actions de recherche. Combien de nouveaux produits et processus capables de bouleverser nos connaissances actuelles et nos moyens d'action dans l'univers pourraient-il en résulter à terme ?

Évidemment, les informations du type de celles que nous venons de présenter n'éveilleront aucun écho chez ceux pour qui remonter dans l'histoire de l'univers jusqu'aux temps primordiaux n'aurait aucune importance – ou pour qui développer de nouveaux projets scientifiques et techniques ne pourrait qu'être nuisible au regard de la nécessité de conserver intact un vieux monde dont l'évolution nous a mené aux brillants résultats que nous constatons. Mais de tels individus seront de plus en plus rares par la grâce de l'internet. Les données fondamentales permettant de mieux comprendre l'évolution du cosmos et de commencer à en modifier les règles circuleront de plus en plus largement. Un changement de philosophie, du type de celui demandé par le physicien David Deutch, http://www.admiroutes.asso.fr/larevue/2011/118/deutsch.htm, visant à considérer comme une priorité le développement des connaissances scientifiques, finira sans doute par se produire.

Alors les beaux esprits les plus bornés se demanderont, en se frappant le front pourquoi ils n'y avaient pas pensé plus tôt.

Repost 0
5 juillet 2011 2 05 /07 /juillet /2011 10:13



Jean-Paul Baquiast 04/07/2011

 

Ceux qui pensaient, tels José Bové, avoir démontré les risques, immédiats ou lointains, du génie génétique s'appliquant tant aux bactéries et aux végétaux qu'aux animaux, humains compris, vont bientôt découvrir que l'industrialisation de la production des organismes génétiquement modifiés (OGM) en fera prochainement une marée capable de transformer une nouvelle fois la biosphère. Sera-ce pour le pire ou pour le meilleur ?

 

 

De quoi s'agit-il. Après la sélection artificielle qui avait dans les siècles précédents permis aux éleveurs de transformer laborieusement un certain nombre d'espèces utilisées dans l'agriculture et l'élevage, est apparu le génie génétique proprement dit. Celui-ci, depuis une quinzaine d'années, suppose dans le cadre de ce que l'on nomme aussi la biologie synthétique, le remplacement de quelques gènes au sein du génome d'une espèce donnée, afin de la doter de propriétés utilisables par l'homme.
 
Il s'agit dans une certaine mesure du développement des recherches sur le génome humain, à but thérapeutique, visant à identifier pour les neutraliser les gènes responsables de maladies héréditaires. Mais les objectifs économiques et industriels du génie génétique, pour obtenir par exemple des levures capables de contribuer à la production de carburants végétaux, sont devenus tels qu'ils ont mobilisé de nombreux laboratoires de par le monde. Craig Venter en était devenu ces dernières années un exemple emblématique.
Il reste que les méthodes utilisée par ces laboratoires étaient jusqu'à ces derniers temps longues et coûteuses. Du fait de la complexité du moindre des génomes, il fallait d'abord en obtenir un séquençage suffisamment détaillé, en utilisant les méthodes utilisées dans le programme Human Genome Project. Il fallait ensuite identifier le ou les gènes associés dans la production de tel caractère recherché, puis modifier ces gènes au coup par coup et finalement tester les résultats de ces changements. Les tâtonnements et erreurs de parcours étaient inévitables. Ceci en amont de toute production industrielle.
 
Un article du NewScientist « The evolution machine » référencé ci-dessous, montre que ces temps héroïques sont en voie de se terminer. Le professeur de génétique computationnelle George Church, de la Harvard Medical School, a pris le parti de créer de grands nombres d'organismes génétiquement modifiés en vue d'obtenir un résultat donné, sans se donner la peine de s'assurer au préalable que ces modifications produiront exactement le résultat recherché. Il suffit ensuite de laisser ces organismes évoluer entre eux par compétition darwinienne et de sélectionner les descendants les plus aptes à produire l'objectif visé.
Il s'agit en d'autres termes du principe depuis longtemps utilisé en programmation (programmation évolutionnaire) faisant appel à ce que l'on nomme les algorithmes génétiques. Mais pour que le procédé appliqué à la biologie soit réalisable à des coûts abordables, il faut disposer de techniques permettant d'une part de modifier à grande échelle les génomes des espèces cibles et d'autre part de tester, là encore à grande échelle, les résultats de leurs compétition, afin de sélectionner les génotypes et phénotypes les plus efficaces.
 
MAGE
 
L'équipe de George Church, entre 2008 et 2010, a mis au point pour ce faire une « machine » capable d'identifier les gènes produisant des résultats aussi proches que possible de ceux recherchés, et de les modifier par les différents procédés aujourd'hui connus. Les chances d'obtenir la mutation la plus efficace possible sont alors considérablement accrues. Il est devenu facile d'obtenir et de tester par ces procédés des milliers de combinaisons génétiques simultanées, ce que les initiateurs de la technique nomment le «  multiplexing ». Des milliards de nouvelles souches pourraient ainsi être obtenus en quelques jours. La « machine » ainsi réalisée, permettant ces performances tout à fait révolutionnaire, a été nommée MAGE pour  Multiplex Automated Genome Engineering. (voir shéma ci-dessus) Sur le fond, MAGE n'a rien inventé jusqu'à ce jour. La « machine » reprend les différentes techniques du génie génétique, mises au point notamment dans le cadre de l'Human Genome Project.
 
En 2009, un collaborateur de Church, Harris Wang, a pu modifier génétiquement une bactérie commune, escherichia coli, afin d'obtenir une souche produisant en plus grande quantité que naturellement du lycopene, un antioxidant présent dans les tomates qui pourrait aider à combattre le cancer. La bactérie génétiquement modifiée a été obtenue en 3 jours avec une dépense de fournitures de 1000 dollars, en utilisant une des machine MAGE. L'ADN est modifié directement dans les cellules vivantes qui sont ainsi incitées à l'utiliser comme s'il s'agissait de leur propre génome.
 
Aujourd'hui, George Church a crée une société, conjointement avec la firme LS9 spécialisée dans les carburants biologiques, afin de commercialiser pour un coût de $90.000 , considéré comme relativement bon marché, des machines MAGE destinée à généraliser la production de bactéries ou mêmes d'organismes génétiquement modifiées, e-coli pour la production de bio-fuels, Shewanella pour décontaminer l'uranium, cyanobactéries pour produire de l'énergie par photosynthèse. Les marchés potentiels apparaissent considérables.
 
Par ailleurs, ces opérations visent déjà à réaliser des bactéries, notamment des colibacilles, qui soient résistantes à certains virus comme à certains antibiotiques. L'objectif serait à terme de produire des organismes polyrésistants. Plus à terme encore, il devrait être possible d'obtenir des génomes entièrement modifiés, autrement dit de nouvelles espèces vivantes.
 
Le mystère « ? » de l' escherichia coli entéro-hémorragique
 
On voit que, plus généralement, la diffusion à grande échelle de ces machines mettra le génie génétique à portée de tous. On imagine sans peine les bénéfices mais aussi les risques qui pourront résulter d'une telle révolution technoscientifique. Les actuelles protestations des militants anti-OGM perdront toute efficacité face à cette invasion.
Il ne faudrait peut-être pas cependant prendre à la légère certains des accidents pouvant découler de la démarche. L'escherichia coli a été utilisée préférentiellement pour les premières expériences, compte tenu du fait qu'il s'agit d'une bactérie présentant de nombreuses variantes, des plus banales aux plus toxiques. Or...
 
Or, nous n'avons pour ce qui nous concerne aucune preuve, on le devine, permettant de relier l'apparition en Europe de l'e-coli entéro hémorragique qui a fait depuis le printemps 2011 des centaines de victimes. Il serait cependant tout à fait possible qu'une souche de colibacille mutée, rendue polyrésistante, ait échappé aux laboratoires de Christ Church ou de ses disciples.
Il est en effet troublant de constater que les spécialistes de l' escherichia coli entéro-hémorragique ne s'expliquent pas la virulence tout à fait nouvelle de la souche européenne. Certains ont suspecté un accident survenu dans des centres de recherche pour la guerre bactériologique, d'autres mêmes une démarche criminelle délibérée. Pourquoi pas un accident de parcours dans l'industrialisation des modifications génétiques de type MAGE que nous venons de résumer ?
Nous n'avons pas d'élément à ce jour permettant de préciser si cette hypothèse a été envisagée, ne fut-ce que pour l'écarter.
Repost 0
27 juin 2011 1 27 /06 /juin /2011 20:15


Jean-Paul Baquiast 27/06/2011

 

Les scientifiques savent depuis longtemps qu'il existe, au moins dans le cerveau de l'homme moderne culturé, une continuité entre la pensée non verbalisée, la pensée verbalisée mais restant cantonnée au niveau du cerveau, le langage parlé ou l'écriture permettant de communiquer cette pensée. Les études faites sur des personnes atteintes d'accidents vasculaires, relayées ensuite par les techniques de plus en plus efficaces de l'imagerie cérébrale, ont permis d'identifier très grossièrement les aires responsables de la mise en oeuvre de ces différentes phases contribuant à l'expression langagière finale.

Observons d'emblée que la partie amont du processus, impliquant le cerveau associatif en relation avec les organes d'entrée et les organes moteurs, reste encore pratiquement inobservable. Nous voulons dire par là que la façon dont le cerveau génère ce que l'on pourrait appeler des pré-pensées, reste mystérieuse. Ceci résulte en partie sans doute du grand nombre des aires cérébrales et groupes de neurones, répartis dans l'ensemble du cerveau, intervenant pour construire les réactions du sujet en interaction avec son environnement.

De même les processus de sélection permettant à tous moments que telle "pré-pensée" l'emporte sur les autres et parvienne le cas échéant au niveau dit conscient, demeurent trop nombreux et mal connus pour pouvoir sauf exceptions être identifiés par des outils externes d'observation au moment où ils se produisent. Tout au plus peut-on constater l'émergence de ces pré-pensées en constatant les actions qui en résultent. Elles peuvent en effet déclencher ou accompagner des comportements de grande ampleur. Si, ce qu'à Dieu ne plaise, je vois un lion assis sur mon lit en ouvrant la porte de ma chambre, mon premier geste, avant même de penser explicitement « c'est un lion, danger » sera de fermer la porte et de prendre mes jambes à mon cou.

Ce "réflexe" de fuite fait partie de l'ensemble des répertoires comportementaux acquis par les espèces vivantes au cours de l'évolution, liant certains messages sensoriels à certaines actions sous commande épigénétique que l'espèce ou que le sujet aura mémorisées comme utiles pour la survie. Le langage courant parle d'ailleurs d'actions inconscientes, voulant dire par là qu'elles sont effectuées avant même d'avoir été le cas échéant traduite par une pensée fut-elle inconsciente. Il se produit un lien que nous pourrions dire direct entre les aires sensorielles responsables de la construction des objets perçus par les sens, les associations pouvant être générées par ces objets (sans même qu'ils aient été nommés par le langage) et les aires des cortex moteurs responsables de l'action musculaire (non verbalisé) découlant de ces associations. Il nous semble, peut-être à tort, que les neurosciences n'ont pas encore mis en lumière les processus sans doute très divers permettant à l'ensemble du lien perception-action en retour de s'établir, en amont de toute pensée verbalisable.

Mais revenons à la verbalisation. Dans le cas de la rencontre avec le lion évoquée ci-dessus, les différentes aires cérébrales conduisant à une action réfléchie, traduisible en symboles et communicable, ont été, nous l'avons indiqué en introduction, identifiées ne fut-ce que grossièrement par les neuro-psychologues. Il s'agit de l'aire de Wernicke qui produit des contenus sémantiques, autrement dit des significations, avant que celles-ci ne soient traduites verbalement. A supposer que j'ai appris précédemment ce qu'est un lion, le danger qu'il peut représenter et la façon de me confronter à lui, l'aire de Wernicke me permettra de traduire la perception que j'en ai sous la forme d'un premier message dont le contenu significatif  implicite « je vois un lion, danger » sera suffisamment fort pour que la verbalisation s'ensuive.

Interviendra ensuite l'aire dite de Broca responsable de la traduction du contenu signifié en mots, autrement dit permettant au message sémantique de prendre une forme linguistique la mieux adaptée possible. Je penserai explicitement: "voici un lion, danger". L'aire de Broca, jouant le rôle d'un générateur de langage, assemblera en fonction des besoins les consonnes et les voyelles indispensables à la production des mots, compte tenu de la langue pratiquée par le locuteur.

Il semble dans ce cas que l'aire de Broca se comporte en véritable dictionnaires des symboles linguistiques, voyelles, consonnes et autres onomatopées et gestes dont le sujet aura appris l'usage dès l'enfance. Mémorisera-t-elle aussi les milliers de mots, tels que le mot "lion" associés à la combinaison de ces symboles (l+i+on). Nous ne pouvons répondre à cette question pour ce qui nous concerne. On peut penser cependant que l'aire de Broca, si elle ne fait pas elle même tout le travail d'archivage et de recherche en mémoire, servira au moins de plaque tournante aiguillant la recherche de la zone ayant mémorisé tel ou tel des concepts acquis par le sujet.

Quoi qu'il en soit, la coopération entre Wernicke et Broca, ainsi éventuellement qu'avec d'autres parties du cerveau, aboutit à la génération d'éléments de discours langagier: "Attention, chers amis, il y a un lion enfermé dans ma chambre". Certains auteurs estiment que cette mise en forme linguistique, avant même que je ne la communique par la parole à d'autres personnes, est indispensable pour que mon cerveau s'engage dans des chaînes de pensées cohérentes. Il s'agit de ce que l'on appelle généralement la voix intérieure ou "inner voice". Selon eux, les pensées un tant soit peu complexes nécessitent d'être traduites en langage intérieur (à travers en principe l'aire de Broca) pour prendre forme.

D'autres jugent que cela n'est pas nécessaire. Au contraire ce processus de pré-verbalisation pourrait être nuisible. Le langage impose des contraintes indispensables à la communication sociale mais qui peuvent stériliser les pensées faisant une large part à l'imagination et aux associations sensorielles, ainsi qu'à la réactivité en temps réel. Penser en langage intérieur, avant de parler ou d'écrire en langage "extérieur", autrement dit communicable aux autres, pourrait alors caractériser une personne dont l'esprit manquerait de vivacité.

L'auteur de cet article, pour sa part, croit pouvoir observer qu'avant de formuler une phrase destinée à un interlocuteur, il ne fait généralement pas appel à une première phrase formulée en langage intérieur, pouvant lui servir de prototype. Il découvre et adapte sa phrase au fur et à mesure qu'il la formule verbalement. Il n'en est pas de même d'ailleurs dans l'expression écrite, qui demande sans doute plus de mise au point avant d'être traduite sur le clavier de l'ordinateur.

Concernant la génération du langage parlé, nous pouvons rappeler une observation que font sans doute beaucoup de sujet. En sortant d'un rêve, ils peuvent se retrouver l'esprit occupé par une phrase produite par leur cerveau pendant le sommeil. Il s'agit même parfois d'une phrase exprimée dans une langue étrangère, tel que pratiquée par le sujet. Le vocabulaire et la syntaxe en sont généralement corrects. Malheureusement, quelle qu'en soit la langue, de telles phrases apparaissent vides de sens utilisable (sauf peut-être par un psychologue). Il s'agit rarement de la solution à un problème important que se posait le sujet avant de s'endormir. N'est pas Poincaré qui veut.

Quoi qu'il en soit, si le sujet veut communiquer le contenu de sa pensée, que ce soit par le langage parlé ou par le langage écrit, son cerveau reprend les contenus sémantiques et les contenus de langage élaborés dans les deux aires précitées, afin de les transformer en ordres destinés aux cortex moteurs. Il s'agit du cortex moteur facial commandant les gestes de la parole ou des cortex moteurs musculo-squelettiques commandant les gestes de l'écriture, manuelle ou via un terminal d'ordinateur.

Lire les pensées

L'ensemble de ces processus était connu depuis déjà un certain temps. Pourquoi la question retrouve-t-elle aujourd'hui une grande actualité, comme le montre un article récent de Duncan Graham Rove dans le NewScientist? (voir Mind Readers http://www.newscientist.com/article/mg21028141.600-mind-readers-eavesdropping-on-your-inner-voice.html ) ? Parce que des techniques en amélioration constante permettent aujourd'hui d'identifier dans le cerveau, de plus en plus en amont, les ondes cérébrales correspondant à la génération sinon des pensées, du moins d'un certain nombre de phonèmes ou de mots correspondant à la construction de ces pensées.

Le thème est porteur d'espoir, notamment pour les personnes paralysées motrices ou atteintes de destruction des aires du langage, pouvant aboutir au " locked-in syndrome" dans lequel un sujet peut penser mais ne peut communiquer sa pensée. Mais ces travaux ont l'intérêt plus général de renouveler les recherches sur la génération du langage par le cerveau, dont nous venons de rappeler quelques éléments. Elles peuvent à juste titre susciter aussi des inquiétudes. A supposer que les méthodes se perfectionnent, n'ira-on pas mener des investigations dans les cerveaux à l'insu ou contre la volonté des sujets ? Il faut s'en préoccuper.

Depuis déjà quelques années, on savait, chez des primates comme chez certains patients, capter des intentions motrices pour diriger un curseur d'ordinateur. Mais cette technique exige des implantations d'électrode dans le cortex moteur. De plus les résultats obtenus sont lents et très grossiers. Les électrodes captent des ordres simples, vers la gauche ou la droite, vers le haut ou le bas. Le sujet, d'après Duncan Graham Rove, ne commande pas directement le curseur. Il se borne à commander mentalement à son corps tel ou tel mouvement simple que ce dernier ne peut accomplir étant paralysé, déplacer par exemple sa main à gauche ou à droite. Aussi simple pourtant que soit le mouvement, il a fallu identifier, chez le singe comme chez l'humain, les signaux produits par le cerveau pour commander ce mouvement, et leur associer des ordres compréhensibles par l'ordinateur.

Ces premières expériences datent du milieu des années 1990. Nous en avons rendu compte ici. Vers 2002, une technique permettant de saisir les impulsions nerveuses plus en amont a été mise au point. Il s'agit de capter les signaux nés à la sortie des aires responsables du langage, avant qu'ils n'atteignent les cortex moteurs. Si je pense "lion" et si des capteurs transmettent les informations correspondantes à un ordinateur, on verra directement ce concept apparaître à l'écran ou commander un synthétiseur de langage.

La technique permettant cette performance est dite "ECoG"ou "electrocorticographie". Mais à nouveau elle requiert l'implantation d'électrodes non pas il est vrai dans les aires très sensibles de la génération du langage, mais seulement sous la voûte crânienne. Elle impose cependant d'ouvrir celle-ci et n'a donc jusqu'ici été pratiquée que chez des patients épileptiques volontaires. Quant aux animaux, il ne semble pas que des recherches correspondantes aient encore été menées, sans doute parce que, dans un premier temps, il aurait fallu identifier un minimum d'éléments sémantiques ou producteurs de sons spécifiques de leurs échanges langagiers.

Concernant les humains, Bradley Greger(1), assistant professeur à l'Université d'Utah, a réussi à identifier les signaux électriques correspondant à la production de certains contenus sémantiques liés à la production de mots du langage courant (oui, non, bonjour...). Il a placé pour cela des électrodes au dessus à la fois de l'aire de Wernicke et du cortex moteur facial. Il a donc pu remonter de ce fait en amont du cortex moteur, vers le cerveau langagier proprement dit. Mais la démarche oblige à construire le dictionnaire correspondant aux concepts utilisés par chaque sujet, ce qui deviendrait vite une tâche impossible

De nouveaux développements se proposent d'explorer, en aval de l'aire de Wernicke mais toujours en amont du cortex moteur facial, l'activité de l'aire de Broca. En ce cas, il faudra identifier et construire le dictionnaire des signaux correspondants aux quelques 40 phonèmes utilisés par le langage courant(2). Traduire les messages correspondants en informations utilisables par un ordinateur capable de synthèse vocale, résoudrait une partie de la difficulté.

Des recherches en EcoG ont été à cette fin conduites par le Dr. Eric Leuthard de l'Ecole universitaire de médecine de St Louis. Il a détecté chez 4 sujets les signaux correspondants à la production d'un certain nombre de phonèmes dans les aires du langage (aires de Wernicke et de Broca). Ces signaux étaient identiques à ceux détectés dans le cortex moteur, que les sujets se bornent à prononcer ces phonèmes dans le cadre d'un langage intérieur précurseur de l'expression verbale ou qu'ils les prononcent à haute voix. Par contre, si les sujets se bornaient à imaginer ces phonèmes sans l'intention de les introduire dans le langage parlé, les signaux n'étaient pas les mêmes(3).

Ces observations redonnent du poids à l'importance attribuée au langage intérieur dans la fonction de production du langage. Les pensées par lequel le cerveau traduit son interaction avec son environnement s'expriment d'abord par ce langage intérieur, avant de faire appel au langage parlé. Pouvoir capter les signaux correspondants et les faire s'exprimer à travers une commande d'ordinateur permettra donc, sinon de lire à proprement parler des pensées complexes, du moins de suppléer à certaines déficiences des cortex moteurs, ceux qui produisent la parole mais aussi sans doute ceux qui produisent d'autres formes de langages symboliques, notamment des mimiques ou gestes(4).

Les recherches susceptibles d'être greffées sur ces premiers résultats sont très nombreuses. Il faudra d'abord essayer de capter les signaux émis par le cerveau en développant des techniques moins invasives que ne le sont les greffes intra-crâniennes. On pourra aussi rechercher si les signaux produits en conséquence d'informations sensorielles identiques (apercevoir un lion sur son lit) diffèrent ou non selon les cultures et les capacités linguistiques des sujets. Enfin, comme nous l'avons indiqué, il sera utile d'étudier, au delà d'expériences sur les singes, la façon dont les cerveaux de diverses espèces animales dotées de langages symboliques produisent et traitent les signaux précurseurs de l'expression langagière. Peut-être sera-t-il alors possible, là aussi, de « lire » le contenu de leurs esprits ou de communiquer avec eux par une forme de télépathie.

Pour en savoir plus
(1). Bradley Greger http://www.bioen.utah.edu/directory/profile.php?userID=292
(2). Cerebral cortex, vol 19, p. 2156
(3). Journal of Neural Engineering, vol 7, p 056007
(4) Voir The computer that can read minds has been created http://www.gev.com/2011/04/the-computer-that-can-read-minds-has-been-created/

Repost 0
19 juin 2011 7 19 /06 /juin /2011 18:31


par Jean-Paul Baquiast et Christophe Jacquemin - 19/06/2011

Vue des réacteurs 2 et 3 de Fukushima, après leur explosion le 16 mars 2011

Il y a quelques jours, des images virtuelles d'un éventuel sarcophage que Tepco pourrait installer au dessus des réacteurs en perdition de Fukushima circulaient sur les télévisions. Mais assez curieusement, il s'agissait apparemment de structures assez fragiles, quasiment en matière plastique, très éloignées des milliers de tonnes d'acier et de ciment envisagés pour remplacer l'actuel sarcophage en place à Tchernobyl. On ne voit pas comment de telles structures pourraient contenir une explosion majeure sur le site de Fukushima. Tout au plus pourraient-elles empêcher la diffusion de gaz radioactifs sous basse pression. De toutes façons, Tepco annonce que la mise en place de ces protections ne sera pas possible avant longtemps, compte tenu du niveau de contamination actuel du site.

 

En fait, les priorités devraient être toutes autres. Il devrait être indispensable d'empêcher dans les jours, semaines ou mois qui viennent la contamination d'une partie du Japon par les cœurs en fusion des réacteurs touchés par le tsunami. Or, très mauvaise nouvelle, pour le moment et compte tenu des technologies aujourd'hui disponibles, cet objectif paraît hors de portée alors que le processus cataclysmique ne cesse de prendre de l'ampleur. Une toute aussi mauvaise nouvelle est que, désormais, le monde entier fait silence sur le désastre mondial qui se prépare. Les conspirationnistes ne devraient pas être les seuls à s'interroger sur les raisons de ce silence.

 

Si l'on en croit l'industriel Tepco, le gouvernement japonais qui l'a toujours soutenu y compris dans ses décisions les plus hasardeuses et les industriels américains du nucléaire qui ont depuis les origines partie liée avec le Japon pour la gestion de son parc nucléaire, la situation à Fukushima serait potentiellement pire qu'elle ne le fut à Tchernobyl. Selon ces sources cependant, il n'y aurait pas de danger immédiat, tant du moins que l'on continuera à pomper de l'eau et qu'un nouveau fort tremblement de terre ne se produira pas. Pas de danger immédiat sans doute, mais pas de solutions fiables avant quelques années au mieux. En attendant, selon ces sources, il n'y aurait pas de raisons de s'inquiéter. Curieuse préconisation.

Pour d'autres experts au contraire, la situation n'a jamais cessé depuis le début de s'aggraver. Aujourd'hui il y aurait de forte probabilités (certains disent 50/50) pour que le pire se produise. Un article récent de Aljazeera.net cité ci-dessous vient de faire un bilan assez terrifiant de la situation. On pourrait suspecter la neutralité de Aljazeera mais la chaîne se borne à reprendre les diagnostics de deux experts confirmés du nucléaire, l'américain Arnorld Gundersen (photo) et le japonais Shoji Sawada. L'un et l'autre, à première vue semblent parfaitement objectifs et bien informés. Certes ils sont tous les deux devenus des whistle-blowers alertant sur les dangers du nucléaire. Le site Fairewinds auquel participe Arnorld Gundersen est un leurs représentants les plus influents aux Etats-Unis. Mais cela ne devrait pas être une raison pour disqualifier leurs analyses.

 

Pour Arnold Gundersen, notamment, la fusion des réacteurs touchés constitue désormais un processus sans doute impossible à empêcher, compte tenu encore une fois des connaissances scientifiques et technologiques du moment. Le refroidissement par eau ne pourra que le retarder de quelques temps, tout en noyant la région et la mer environnante sous des milliers de tonnes d'eau fortement contaminées. Une fois les nappes phréatiques ou les couches terrestres profondes atteintes, ce ne serait pas seulement une large périphérie autour de Fukushima qui deviendrait inhabitable, mais sans doute la ville de Tokyo elle-même. Dans l'hypothèse la plus grave, celui de l'explosion des centaines de tonnes de combustibles nucléaires présents sur le site, le Japon tout entier puis très vite des zones étendues de l'hémisphère nord pourraient être interdits à la vie humaine.

D'ores et déjà, deux experts de santé publique américains estiment avoir observé une augmentation anormale de la morbidité des nouveaux nés dans une dizaine de villes de la cote ouest des Etats-Unis situés approximativement sous le vent de Fukushima (voir ci dessous le rapport Sherman-Mangano). On s'étonne que, devant une observation aussi troublante, des inquiétudes beaucoup plus nombreuses ne se soient pas encore manifestées, notamment aux Etats-Unis, si soucieux en général de la santé publique.


La situation paraît en voie de devenir si grave que le silence des autorités nationales et internationales est véritablement inexplicable. Même si peu de remèdes ne paraissent pour le moment disponibles, il conviendrait néanmoins que les scientifiques du monde entier y réfléchissent et travaillent à la mise au point de solutions. L'inaction actuelle donne beaucoup d'arguments à ceux dénonçant une conspiration du silence de la part des gouvernements et des industriels impliqués, non seulement au Japon mais aux Etats-Unis. La complicité objective entre Barack Obama et l'Exelon Corporation, le plus gros fournisseur d'énergie nucléaire et un des plus importants contributeurs de sa campagne, est dénoncée.

 

Rien cependant n'y fait. L'attitude généralement affichée par l'ensemble des décideurs et des médias est particulièrement à courte vue, mais elle n'indigne encore personne. Le message général s'apparente au suivant: "le magma monte dans la cheminée du volcan. Une explosion destructrice se produira bientôt. Mais qu'importe, dormez tranquilles au bord du cratère...pour le moment".

 

Précisons à l'attention de ceux qui militent pour l'abandon de l'énergie nucléaire que ce dernier objectif de l'abandon, à supposé qu'il soit décidé, ne pourra pas être mis en oeuvre avant 25 ou 30 ans. Au Japon le monde se trouve confronté à une échéance beaucoup plus immédiate et à des risques beaucoup plus graves: un Tchernobyl de magnitude 10 pouvant se produire dans quelques mois. La réaction de prévention devrait être toute différente.

 

Sources
* Article d'Aljazeera : http://english.aljazeera.net/indepth/features/2011/06/201161664828302638.html
* Fairewinds : http://www.fairewinds.com/home
* Arnold Gundersen : http://en.wikipedia.org/wiki/Arnold_Gundersen
* Paul Jorion : http://www.pauljorion.com/blog/?p=24334
* Rapport Sherman Mangano : http://www.counterpunch.org/sherman06102011.html
" The recent CDC Morbidity and Mortality Weekly Report indicates that eight cities in the northwest U.S. (Boise ID, Seattle WA, Portland OR, plus the northern California cities of Santa Cruz, Sacramento, San Francisco, San Jose, and Berkeley) reported the following data on deaths among those younger than one year of age:
4 weeks ending March 19, 2011 - 37 deaths (avg. 9.25 per week)
10 weeks ending May 28, 2011 - 125 deaths (avg.12.50 per week)

* Exelon Corporation : http://www.exeloncorp.com/Pages/home.aspx

Repost 0
18 juin 2011 6 18 /06 /juin /2011 11:16


par Jean-Paul Baquiast- 17/06/2011

Lascaux

Appelons hominidés, pour ne pas parler prématurément d'humains, les différentes lignées de primates bipèdes qui se sont développées en Afrique à partir approximativement de 5 millions d'années BP, avant de gagner l'ensemble de l'hémisphère nord bien plus récemment, vers - 1,8 million d'années.

La question que se posent beaucoup de paléoanthropologues concerne les causes premières d'une telle évolution, qui ne s'est produite qu'une fois et une seule à cette échelle dans l'histoire de la vie, et qui a profondément bouleversé l'holocène, le transformant en ce qui vient d'être nommé l'anthropocène. Pourquoi certains primates sont-ils devenus les agents de cette évolution et non d'autres peu différents aux origines et partageant globalement le même habitat?

La réponse traditionnellement donnée à cette question est connue. Ce fut l'usage des outils qui a permis, vers environ – 3 à – 2,5 millions d'années, une séparation de plus en plus marquée entre des hominidés utilisateurs d'outils et leurs cousins n'ayant pas acquis la pratique systématique de ces mêmes outils.

La connexion animale

Récemment la biologiste Pat Shipman, enseignant à la Pennsylvania State University, a proposé de compléter cette première explication par une autre, exposée dans son livre « The Animal Connection. A new perspective on what makes us human » (W.W. Norton and Co, juin 2011) . Elle ne remet pas en cause l'explication de l'hominisation par l'usage de l'outil, mais elle propose d'ajouter un facteur explicatif tout aussi puissant selon elle: la coopération qui s'est établie des les origines entre les hominiens et différentes espèces animales les ayant aidé à s'imposer dans un monde peuplé initialement de prédateurs redoutables.

L'exemple emblématique qu'elle propose est le loup, devenu chien en cohabitant avec l'homme. La co-évolution de l'Homme avec le chien est la plus ancienne identifiée. Elle remonterait à – 32.000 ans. Mais d'autres espèces, selon elle, comme le chat et le cheval, ont joué un rôle analogue. Dès les origines se serait établi entre les humains et ces animaux de véritables symbioses coopératives, ce qu'elle nomme une « animal connection » que l'on pourrait presque entendre comme une « animal addiction ».

Selon Pat Shipman, il ne faut pas confondre la domestication de ces espèces avec d'autres survenues bien plus tard, lors de la révolution néolithique. Les animaux d'élevage qui se sont multipliés alors ont certes eux aussi co-évolué avec les humains, à la suite de nombreuses sélections et mises en condition. Mais le rôle de fournisseur de matières protéiques auquel ils ont été condamnés a beaucoup réduit l'investissement affectif réalisé par les humains dans leurs relations avec eux.

L'addiction dure encore et s'est même considérablement renforcée, si bien que beaucoup de biologistes considèrent qu'il existe aujourd'hui entre certains humains et leurs animaux familiers des domaines entiers d'échanges sensoriels, affectifs et même cognitifs, dont beaucoup échapperaient à la conscience réfléchie humaine. Dès les origines, manifestement, les hominiens ont passé beaucoup de temps à l'acquisition de connaissance sur les animaux, qu'il s'agisse des prédateurs avec qui ils étaient en compétition ou des proies. L' art pariétal beaucoup plus récent il est vrai en témoigne amplement.

Comme le signale Pat Shipman, seuls des animaux y sont représentés, rarement sinon jamais des hommes ou des activités humaines. Les peintures et sculptures permettaient sans doute, indépendamment de leurs significations mythiques, de transmettre une connaissance approfondie du monde animal, indispensable pour la survie. La connaissance du monde végétal était certainement tout aussi utile. Pourquoi n'a-t-elle pas été représentée symboliquement? Sans doute parce qu'il était plus difficile d'entrer en empathie avec les plantes.

Dans notre essai « Le paradoxe du Sapiens », nous avons mis l'accent sur les symbioses s'étant établies dès les origines de l'usage des outils entre les humains et les technologies, symbioses que ont pris aujourd'hui des dimensions extrêmes avec la généralisation de ce que nous appelons les systèmes anthropotechniques.

Mais nous avons signalé, sans y insister, que des observations analogues pouvaient être faites, concernant l'importance des relations entre humains et animaux dans l'évolution du monde bio-anthropologique. Il est profondément regrettable aujourd'hui que la concurrence darwinienne entre sociétés anthropotechniques ait conduit progressivement à l'éradication d'une diversité animale ayant enrichi pendant des millénaires la vie des humains.

Nous ne pouvons donc que conseiller l'étude des considérations de Pat Shipman relative à ce qu'elle nomme l' « animal connexion », afin de protéger et si possible augmenter la richesse de relations avec les animaux sans lesquelles nous ne serions pas ce que nous sommes.

A la recherche de la capacité à innover

Nous ne voudrions pas ici cependant nous limiter à ces considérations un peu banales, qui nous conduiraient à passer à côté du vrai problème, évoqué dans notre essai « Le paradoxe du Sapiens » mais aussi dans le dernier ouvrage de David Deutsch « The Beginning of Infinity ». (voir notamment http://www.admiroutes.asso.fr/larevue/2011/118/chroniqueinfini1.htm).

Ce problème peut être résumé comme suit: quel fut le facteur évolutif décisif qui a permis, voici quelques millions d'années, à certaines espèces de primates, d'« instrumentaliser » de façon systématique leur environnement à leur profit? Cette instrumentalisation, on vient de le voir, a porté aussi bien sur les objets physiques (les futurs outils) de cet environnement que sur les objets vivants, plantes et animaux. Il a porté ensuite sur des mécanismes naturels tels que le feu.

Pour préciser la question, il faut reprendre les termes de David Deutsch: pourquoi ces primates particuliers, les futurs hominiens, sont-ils devenus des « universal explainers », autrement dit pourquoi ont-ils soupçonné que derrière chaque objet ou processus du monde se trouvaient des lois de fonctionnement qu'ils pouvaient chercher à comprendre et utiliser à leur profit dans des circonstances différentes de celles dans lesquelles ces supposés lois s'appliquaient?

Il fallait pour cela qu'ils échappent à l'enfermement dans l'imitation qui est le lot des innombrables autres espèces vivantes. Celles-ci reproduisent en effet avec peu de variations les comportements innés adaptatifs leur ayant permis au fil des générations de tirer le meilleur parti d'un environnement donné. Elles utilisent (instrumentalisent) évidemment leur environnement mais sans avoir cherché à se l'expliquer d'une façon rationnelle, testable, transmissible et perfectible. Que cet environnement change et l'expérience génétique est perdue, sauf à ce que d'hypothétiques variations génomiques au hasard permettent à l'espèce de rebondir.

Découvrir le secret fondametal qui est à la base de l'hominisation n'intéresse pas seulement les paléoanthropologies, mais tous les anthropologues d'aujourd'hui et nous-mêmes. Pourquoi la plupart des humains se limitent-ils à reproduire ce que leur a transmis la société, plutôt que refuser les expériences acquises et leurs limitations afin d'imaginer des rationalités ayant un plus grand pouvoir explicatif?

David Deutsch, comme bien d'autres chercheurs, formule un plaidoyer vibrant destiné à développer la capacité à inventer. Mais n'invente pas qui veut. La grande majorité des humains mis en face d'un problème, fut-il vital, tournent en rond sans être illuminés par l'ébauche d'une solution possible. De rares autres au contraire trouvent l'idée qu'il fallait, idée si simple parfois que, selon Einstein (ou Feymann), on se demande ensuite pourquoi personne ne l'avait eu avant eux.

David Deutsch a bien vu le problème, mais il lui donne une solution qui ne fait que reporter la difficulté en amont. Il explique que les hominiens n'ont évidemment pas appris spontanément à inventer de façon rationnelle, guidé par un quelconque philosophe présocratique de l'innnovation. Les jeunes l'ont fait simplement en cherchant à comprendre pourquoi les parents et les chefs disposent de l'expérience faisant leur supériorité par rapport à eux, et de quelles façons ils pourraient à leur tour se doter de cette supériorité.

Ils ont donc cherché non pas seulement à imiter ces parents et chefs dans les domaines étroits de leur excellence acquise, mais à instrumentaliser pour leur plus grand bénéfice les sources des capacités cognoitives de ces parents permettant d'expliquer et transformer le monde- le tout instinctivement évidemment, tout au moins aux débuts du processus.

Or demandons nous, comme nous l'avons fait précédemment, pourquoi ce regard critique et cette volonté de se doter des capacités explicatives des parents et des chefs sont-ils apparus chez ces primates particuliers et non pas dans les innombrables espèces biologiques où les jeunes se forment en imitant l'expérience des parents. De la même façon, pourquoi notre primate préhominien a-t-il regardé la pierre qu'utilisait un autre primate pour casser une noix et qu'il jetait ensuite comme un outil potentiellement universel en vue de bien d'autres usages non encore spécifiés.

Dans notre essai, nous avons évoqué une des réponses donnée par certains généticiens à la question que nous venons de résumer. Pour eux ce fut l'apparition d'une mutation entraînant la réorganisation de certaines bases neurales de la cognition qui a permis d'accroître sur une grande échelle les capacités à l'abstraction et à la projection dans le futur des primates bénéficiaires d'une telle mutation.

Mais il faut bien reconnaître qu'une telle explication reste insuffisante. Tant que n'auront pas été mises en évidence les capacités génétiques ou épigénétiques à inventer qui permettent aux humains (les systèmes anthropotechniques) de se comporter en universal explainers et en universal transformers, le saut qualitatif vers le développement infini des sciences et des savoirs que souhaite David Deutsch et bien d'autres avec lui ne se produira pas à une échelle suffisante pour la transformation profonde du cosmos dont rêvent les esprits aventureux.

 

Repost 0
13 juin 2011 1 13 /06 /juin /2011 11:03


Jean-Paul Baquiast 13/06/2011I

Le singe se déplaçant sur le tapis roulant à droite commande à distance la marche bipède du robot à gauche.

 

Imaginons une situation très simple. Vous prenez un café avec quelques collègues. Les tasses servies viennent d'être posées par le garçon sur la table. L'un d'entre vous n'attend pas les autres. Il prend une des tasses à la main et commence à boire. Entraîné par l'exemple, sans presque y penser, vous faites de même.

L'analyse des circuits nerveux impliqués dans ce comportement peut, avec les techniques de plus en plus perfectionnées développées par les neurosciences, mettre en évidence sans grandes difficultés les messages qui s'échangent à cette occasion entre les organes sensoriels, les organes moteurs et le cerveau. Les organes sensoriels sont ceux de la vision, de l'odorat et du toucher. Ils transmettent au cerveau les informations nécessaires à l'identification de la tasse de café et de son contenu. Les organes moteurs ou effecteurs relèvent de l'appareillage musculo-squelettique permettant de saisir la tasse et de boire le café. Ces deux catégories d'organes sont reliées par des fibres nerveuses montantes et descendantes qui permettent d'établir des boucles sensori-motrices se traduisant finalement par le fait de saisir la tasse, de boire le café et de reposer la tasse sur la soucoupe.

Les travaux sur les neurones miroirs (voir notre essai Le paradoxe du Sapiens) ont montré que dans des situations simples accomplies en groupe, où l'exemple collectif joue un grand rôle, comme dans notre exemple, les échanges nerveux se limitent à ce que l'on nomme globalement le cortex sensori-moteur en charge de la coordination entre les entrées sensorielles et les sorties motrices. Les couches associatives permettant l'activation de la conscience supérieure ne sont même pas mobilisées.Autrement dit, vous buvez votre café sans pris ce que dans le langage courant l'on nomme une décision volontaire. Il s'agit d'une décision dite « machinale ». Vous vous bornez à suivre l'exemple de vos collègues.

Mais ce point n'est pas important. Si pour une raison particulière vous vous trouviez seul, vous pourriez explicitement décider de prendre un café et faire les gestes correspondants, le tout plus ou moins en pleine conscience. A ce moment les aires cérébrales supérieures impliquées dans ce que l'on nomme l'attention et la conscience volontaire entreraient en jeu. Certes, les processus dont découle la prise de décision dite volontaire sont bien plus complexes. Ils impliquent en général tout le cerveau sinon tout l'organisme. Mais les échanges et fonctions qui en découlent, réalisées dans les couches inférieures du cortex sensori-moteur, ne seraient pas radicalement modifiées.

Supposez maintenant que vous ayez accepté de participer à une expérience vous permettant d'assurer le contrôle à distance d'un robot doté des organes sensoriels et des organes effecteurs lui permettant de se comporter au café d'une façon voisine de la vôtre. La première phase d'une telle expérience consisterait à se procurer un robot capable de s'asseoir à une table de café, de saisir une tasse et de boire (ou faire semblant de boire) son contenu. Ce robot devrait être très perfectionné. Les actes apparemment simples attendus de lui exigeraient de lui une grande versatilité. Aujourd'hui cependant la robotique permet sans difficulté de demander de tels comportements à des robots.

Plus compliqués mais néanmoins faisables sont les actions typiquement humanoïdes telles que la marche bipède. L'architecture des robots usuels n'y est pas adaptée. Pourtant, de nombreux robots sont désormais capables de marcher sur deux pieds et de se comporter dans toute une série d'activités avec une fluidité quasi humaine.

Beaucoup plus difficile sera la seconde phase de l'expérience: donner à votre cerveau la capacité de commander les activités motrices et de recevoir en retour les messages sensoriels correspondant à la manipulation d'une tasse de café et de son contenu. On pourrait évidemment faire en sorte que ceci soit fait par l'intermédiaire d'un clavier relié au robot. Vous pourriez le commander manuellement en fonction de ce que vos propres yeux vous permettraient d'observer relativement au comportement du robot.

Mais on conçoit bien que l'expérience ne serait vraiment intéressante que si vous pouviez remplacer vos propres organes sensoriels et moteurs par ceux du robot. Il faudrait alors que les flux de données montantes et descendantes découlant de l'interaction du robot avec la tasse de café viennent alimenter directement votre cerveau, court-court-circuitant votre appareillage sensoriel.

Ceci pourrait se faire à deux niveaux différents. La procédure la plus simple consisterait à identifier les terminaisons de vos circuits sensoriels et moteurs pour les alimenter directement en données fournies par le robot ou pour leur permettre de produire des données utilisables par le robot. Les données en question devraient être convenablement décodées puis recodées pour être utilisables à la fois par le robot et par votre système nerveux. Ceci se fait couramment aujourd'hui, par exemple dans les prothèses sensorielles destinées à remplacer un organe des sens abimé. Le nerf auditif ou optique est directement activé par la prothèse.

Une procédure plus complexe mais également de plus en plus pratiquée aujourd'hui consisterait à introduire directement dans les aires corticales responsables de la commande motrice ou de la réception sensorielle de petits capteurs servant d'interface entre la prothèse et le cerveau. C'est la fonction que remplit par exemple l'opération dite des implants cochléaires qui permet d'activer directement, en l'absence du nerf auditif détruit, les aires spécialisées du cerveau capables de recevoir et traiter les données sonores provenant d'un capteur artificiel.

Il ne faut pas se dissimuler cependant que fournir au cerveau des données provenant immédiatement des sens ne suffit pas à la reconstruction des représentations complexes du monde qu'élabore en permanence celui-ci. Ce sont généralement des milliers de neurones, répartis dans des dizaines d'aires différentes, qui coopèrent pour une telle construction. Il est tout aussi difficile d'identifier les aires réparties dont la coopération aboutit à l'élaboration des ordres moteurs. Rien cependant en théorie ne semble interdire d'envisager de telles solutions.

Un autre problème, de nature plus pratique se pose. Commet pourrait-on envisager l'implantation dans le cerveau des nombreux capteurs artificiels nécessaires pour l'interfaçage avec les organes du robot? A terme cependant, il n'est pas exclu que des méthodes moins invasives soient proposées, par l'intermédiaire de casques externes que les sujets humains participant aux expériences accepteraient de porter.

 

La plasticité cérébrale


On voit donc qu'avec un peu de temps et quelques moyens de recherche, il deviendra possible de mettre directement en relation votre cerveau avec un robot capable de remplacer vos organes sensoriels et moteurs, non seulement pour prendre une tasse de café, mais pour accomplir éventuellement, à l'autre bout du monde, des tâches qui seraient hors de portée de votre appareillage corporel.

De plus, point essenteil, contrairement à ce que laissait supposer l'analyse que nous venons de faire au début de cet article, il ne serait pas nécessaire pour cela d'imposer à des chercheurs en neurosciences l'identification de détail des aires neuronales concernées, non plus qu'à des programmeurs la traduction en langage-machine des données émanant du cerveau. Des expériences menées depuis quelques années sur des primates, relatées sur ce site et sur de nombreux autres, montre que la plasticité du cerveau est telle que celui-ci accepte avec un peu d'entrainement de considérer les prothèses robotiques comme des organes du corps proprement dit.

En pratique, il suffit que le sujet engage mentalement les opérations traduites dans le langage courant par le terme de prise de décision volontaire, pour que les ordres correspondants soient transmis au robot et que les retours d'expérience en provenant soient traitées comme si elles émanaient des organes des sens. On poura dire à ce moment d'une façon imagée que le robot est contrôlé par la pensée. Nous sommes donc là directement immergé dans la réalisation de ce que nous nommons sur ce site des systèmes-bioanthropotechniques.

Le Pr brésilien Miguel Nicolelis, fondateur du Center for Neuroengineering à l'université de Duke, Caroline du Nord, s'est spécialisé dans de telles recherches (voir références ci-dessous). Elles sont dorénavant étudiées et poursuivies dans le monde entier, en collaboration avec les firmes les plus avancées en matière de réalisations de robots évolutionnaires et de prothèses artificielles. Les applications les plus intéressantes au point de vue social concernent l'aide aux personnes paralysées ayant conservé une activité cérébrale normale. Elles pourront faire appel de cette façon à des appareillages susceptibles d'être commandés directement par la pensée. Ceci s'inscrit dans les perspectives intéressant la réalisation d' « hommes augmentés » intéressant particulièrement le mouvement transhumaniste.

Par ailleurs, dans le domaine plus immédiat des applications robotiques en milieu difficile d'accès, l'utilisation de telles interfaces entre des robots explorateurs et des humains trouvera un nombre très important d'applications. On citera notamment l'exploration des planètes. L'intérêt potentiel serait si grand que nous ne pouvons que regretter, une nouvelle fois, le peu de moyens mis par les responsables de la recherche européenne dans de tels investissements.

Miguel Nicolelis vient de présenter ces travaux dans un essai nommé « Beyond Boundaries » Times Books.

 

Références
* NicolelisLab
* Article du Newscientist
* Article du Blog Think artificial

Repost 0
12 juin 2011 7 12 /06 /juin /2011 16:05

par Jean-Paul Baquiast et Christophe Jacquemin - 12/06/2011

Le mouvement de l'économie sociale et solidaire, lancé et soutenu en France, entre autres personnalités, par Claude Alphandéry http://fr.wikipedia.org/wiki/Claude_Alphand%C3%A9ry, vise à proposer des alternatives économiques et sociales à l'actuel Système de pouvoirs financiers, gouvernementaux et médiatiques s'étant emparé du monde actuel pour le dominer.

Claude Alphandéry est comme Stéphane Hessel, un de ces octogénaires issus de la haute fonction publique française et républicaine qui ne se satisfont pas de l'ordre imposé par ce Système, que ce soit en France, en Europe et dans le monde. Mais plus concrètement que Stéphane Hessel, il participe à l'identification, au soutien et à la promotion des milliers d'initiatives s'inscrivant hors du champ de la recherche du profit spéculatif, destinées à rendre des services dont se désintéresse l'économie marchande.

Nous reconnaissons pleinement, pour notre part, la légitimité de cette démarche, qui n'avait d'ailleurs pas attendu l'époque récente pour s'affirmer, avec les réalisations notamment de la coopération et de l'économie alternative. Le mouvement, encore mal connu aujourd'hui, bénéficiera de l'extension des réseaux numériques non seulement pour mieux se faire connaître mais pour rendre de nouveaux services peu coûteux en investissements bien que riches en valeur ajoutée pour les populations.

Indiquons pour ceux qui ne l'auraient pas remarqué que notre démarche de communication et de discussion intéressant la science, les technologies et la philosophie des sciences s'inscrit pleinement dans l'économie sociale et solidaire. Automates Intelligents vise à rendre un service aujourd'hui indispensable, faire connaître gratuitement et discuter les nombreuses avancées de connaissance indispensables à la transformation du monde.

Comme indiqué dans notre présentation du livre du physicien David Deutsch, (The Beginning of Infinity, http://www.admiroutes.asso.fr/larevue/2011/118/deutsch.htm) il s'agit d'un devoir s'imposant, non seulement aux Etats et institutions républicaines, mais à tous ceux ayant acquis un minimum des bases nécessaires à la compréhension des enjeux de l'évolution des savoirs scientifiques qui transformera de plus en plus la planète. Il est indispensable de n'en pas laisser le monopole aux oligarchies qui voudraient s'en conserver exclusivement la maîtrise.



Pour en savoir plus

L'économie sociale et solidaire http://www.pouruneautreeconomie.fr/
Le Labo de l'ESS. http://www.lelabo-ess.org/
Les Etats généraux. Palais Brongniart (Place de la Bourse, Paris. 17, 18 et 19 juin 2011
Cinquante propositions. http://www.lelabo-ess.org/propositions/50-propositions-pour-changer-de-cap/

Démarche de l'ESS selon Claude Alphandéry.
« Nous vivons une crise de civilisation qui appelle un projet de civilisation. Si cette idée s'impose peu à peu dans tous les milieux, elle reste trop souvent à l'état de discours. Les mesures prises ne sont pas à la hauteur des périls. La petite musique d'un "business as usual", certes plus vert et plus social, revient comme une antienne, faisant fi des leçons des crises.

Une majorité de citoyens ne satisfait pas de cette perspective et souhaite une réforme profonde de l'économie. Savent-ils que des centaines de milliers de personnes y œuvrent déjà ? Il s'agit des salariés, bénévoles, entrepreneurs, consommateurs... de l'économie sociale et solidaire (ESS). Ce champ rassemble une grande diversité d'initiatives économiques, ni publiques, ni capitalistes, qui cherchent à produire, consommer et décider autrement, de manière plus respectueuse des hommes, de l'environnement et des territoires.

Au sens le plus large, l'ESS représente 200 000 entreprises et 2 millions de salariés. Fort de plus de 150 ans d'histoire, ce mouvement est loin d'être une exception française, et se développe partout en Europe mais aussi au Québec, en Amérique Latine... La crise actuelle est une opportunité pour convaincre que non seulement l'ESS constitue une réponse immédiate aux problèmes sociaux et écologiques mais qu'elle peut aussi, par ses valeurs et pratiques, inspirer de nouvelles régulations économiques à la hauteur des enjeux.

Il est urgent d'agir et de convaincre. C'est pourquoi nous mettons ici en débat 50 propositions pour changer de cap, issues des travaux du Labo de l'ESS. Vous avez la parole ! Votre avis, vos idées nous sont précieux. Faites mouvement avec nous et agissons ensemble pour un autre mode de développement. »

Claude Alphandéry
Initiateur du Labo de l'économie sociale et solidaire
Président d'honneur de France Active

Repost 0
10 juin 2011 5 10 /06 /juin /2011 11:30

 


Chroniques vers l'infini
2. Regards sur le futur

Jean-Paul Baquiast 09/06/2011

NB. ce texte reprend sous une autre forme certains des points précédemment présentés. Nous pensons qu'il s'agit d'un nécessaire effort de pédagogie.

David Deutsch fonde l'ensemble de sa philosophie des sciences sur le postulat, donnant son titre à l'ouvrage, que les bonnes théories peuvent entraîner un progrès illimité des connaissances, autrement dit un progrès infini. Par bonnes théories, nous l'avons vu, il désigne celles découlant de la méthode scientifique, en permanence critiquées et soumises à l'expérience, afin que s'étende sans cesse leur portée.

Ceci le conduit à défendre le concept d'infini, aussi bien en mathématique qu'en physique. Nous n'entrerons pas ici dans ce débat très technique. Nous pouvons seulement constater que les arguments qu'il utilise pour critiquer le postulat de la finitude, dit en mathématique le finitisme, sont très recevables. Selon le finitisme, ne peuvent exister que des entités finies, fussent-elles abstraites. Elargi au monde concret, ce postulat entraîne la même conclusion. Le concept d'infini appliqué au monde naturel semble en effet contre-intuitif. Rien ne peut-être infini. Mais celui de monde fini l'est tout autant s'il est pris dans l'absolu.

Pour David Deutsch, le finitisme, comme l'instrumentalisme, caractérise un projet destiné à nous empêcher de comprendre les entités qui sont hors de notre portée du moment. Il s'agit en fait d'une approche marquée d'esprit de clocher (parochialism) déniant à la raison la possibilité d'une démarche universelle. Si la raison se heurte à des limites, elle est obligée de céder le pas à l'irrationalisme et au surnaturel. Elle ne peut donc être universelle. On doit en conclure que si l'on postule l'universalité de la raison, il faut aussi postuler l'infini.

Nous ne sommes pas là confrontés à un débat purement technique. Il est profondément politique. Pour David Deutsch, il est urgent de dénoncer les prédictions selon lesquelles la connaissance rationnelle devra se résoudre à se voir cantonnée dans certains domaines et à l'intérieur de certaines frontières, pour le présent comme pour le futur. Or rien a priori ne permet d'affirmer que tel ou tel sujet puisse demeurer hors de sa portée, y compris dans les domaines relevant de la morale, de l'esthétique, des sensations et plus généralement de l'esprit. A condition de prendre les précautions nécessaires et d'éviter tout réductionnisme, la science doit pouvoir tout aborder et tenter de tout expliquer, avec de bonnes explications.

Nous présenterons dans une autre chronique les domaines de connaissance pour lesquels, selon David Deutsch, il paraît tout a fait possible aujourd'hui d'envisager des progrès, sinon infinis, du moins très au delà des limites considérées aujourd'hui comme probables. Mais diront ceux qui nient la possibilité de progrès, qu'est-ce qui vous permet de penser qu'étendre la portée des connaissances scientifiques entraînait un quelconque progrès?

On avons rappelé précédemment que l'humain (l'entité anthroposcientifique, dans notre vocabulaire), s'appuyant sur la méthode scientifique, est selon David Deutsch un producteur universel de connaissances explicatives (universal explainer). Il est de ce fait un agent universel de transformation (universal transformer). Serait-ce un progrès que prétendre faire de l'homme, comme le sont les moules sur les rochers, des créatures n'expliquant rien et ne transformant pas grand chose?

Un de nos lecteurs vient d'affirmer faussement, par un a-priori idéologique très répandu, que reconnaître à l'humain la capacité d'étendre ses explications scientifiques du monde conduit à « renoncer à la transcendance,s'enfermer dans le court terme, se séparer de la lumière et du sacré, verser dans les excès en tous genres, etc ». On reconnait là le procès fait traditionnellement à la science par les militants du dualisme, opposant le matérialisme du corps à l'élévation de l'esprit. Aucun scientifique digne de ce nom ne peut accepter cette accusation.

Ne pas prophétiser sur le futur

Encore faut-il évidemment, pour qu'il y ait progrès scientifique, que le chercheur et le philosophe des sciences ne se hasardent pas à formuler des prédictions mal fondées, pouvant se transformer en prophéties encore moins bien fondées. La méthode scientifique, comme le rappelle une nouvelle fois David Deutsch, ne peut prédire ce que sera le futur puisque celui-ci découlera de connaissances encore inexistantes ou inachevées au moment où elle s'exprime.

Les connaissances qui apporteront des solutions pour demain et qui, avant cela même, créeront par leurs erreurs relatives des problèmes qu'elles devront s'attacher à résoudre, nous sont encore inconnues. Ceci dans tous les domaines sans exceptions. Nous n'en avons même pas la première intuition. Cette cécité obligée des scientifiques, enfermées dans leurs certitudes d'aujourd'hui, à l'égard d'un progrès qu'ils ne peuvent soupçonner pour demain, a été, inutile de le démontrer ici, mis en évidence, plus particulièrement depuis la fin du 19e siècle, par des exemples fameux. Il faut s'en pénétrer en permanence, car à chaque époque, s'impose la tentation de prendre pour gravées dans le marbre, avec leurs possibilités mais aussi leurs limites, les connaissances du temps présent.

Mais comment alors se préparer au mieux à de futurs évènements dont les causes nous demeurent encore inconnues? Quelle est l'approche rationnelle pour affronter l'inconnu, sinon l'inconcevable? Il s'agit moins alors de faire appel à des méthodes scientifiques proprement dites qu'à des attitudes philosophiques. Il faut selon David Deutsch éviter tout autant l'optimisme aveugle que le pessimisme systématique. L'optimisme aveugle, dérivé d'une vieille croyance selon laquelle, selon Pangloss (ou Leibnitz), tout est pour le mieux dans le meilleur des mondes, ne repose sur aucune preuve mais seulement sur la croyance que Dieu veille ainsi au bonheur de ses créatures.

Au plan philosophique il se transforme facilement en son contraire, le pessimisme aveugle, très à la mode aujourd'hui, dans la ligne de ce qu'avait affirmé Schopenhauer. Il conduit au Principe de précaution dont David Deutsch, nous l'avons vu, dénonce le caractère non scientifique, s'il consiste à ne rien tenter qui puisse entraîner des risques. Le Principe de précaution relève d'ailleurs de l'optimisme naïf à l'égard du présent. Il postule en effet que les connaissances d'aujourd'hui seront en toutes circonstances préférables à celles de demain. L'optimisme aveugle et le pessimisme aveugle sont des formes alternatives de prophétie. Ils prétendent avoir des lumières qu'ils n'ont pas sur l'état futur des connaissances. Ils oublient que le caractère incontournable de la condition humaine est que nous ne connaissons pas ce que nous n'avons pas encore découvert.

Parmi ces découvertes de demain seront certainement des catastrophes provoquées par les découvertes technologiques d'aujourd'hui. Pourront aussi survenir des catastrophes naturelles de grande ampleur, comme la rencontre avec un astéroïde. La meilleure façon de s'y préparer consiste, non à ne rien faire, mais à faire appel aux solutions des Lumières (et de la démocratie) pour mettre les sociétés en état de résister le mieux possible. Pour cela, la critique contradictoire des théories et des pratiques existantes, la production de nouvelles connaissances, la mise en place de politiques publiques s'en inspirant demeure la seule approche garantissant le maximum de sureté.

Il est important à cet égard que le gouvernement soit exercé par des élus et responsables capables de privilégier l'acquisition de bonnes connaissances sur la conservation des idées existantes. Les populations et en leur sein les scientifiques et les techniciens devraient exercer à cet égard une pression suffisante sur les pouvoirs politico-économiques pour que ceux-ci ne cèdent pas aux idéologies fausses et aux solutions de facilité.

Le Principe d'Optimisme

Pour cela, David Deutsch propose ce qu'il appelle un Principe d'Optimisme.Celui-ci reposerait sur le postulat que tous les maux sont provoqués par une insuffisance de connaissance. Or remédier à l'insuffisance des connaissances représente un effort d'innovation et de créativité dont une partie des ressorts profonds nous échappent encore. C'est pourtant le seul investissement collectif dont on peut être certain qu'il sera producteur de résultats.

Les pouvoirs financiers qui recherchent des taux d'intérêts élevés dans des délais de quelques instants ne s'y intéresseront pas. Ils feront au contraire tout ce qu'ils pourront pour enfermer dans le Système de la finance et du profit à court terme tous ceux susceptibles d'apporter à la société les capacités de leurs savoirs-faire et de leurs cerveaux.

Dire cela ne serait que formuler une évidence banale si s'appuyant sur cette constatation les militants de la nécessaire sortie du Système de la finance et des oligarchies n'imposaient pas la mise en place de politiques ambitieuses visant par l'éducation et la recherche à augmenter les connaissances, qu'elles soient générales ou particulières.

Ceci se traduirait nécessairement par des investissements importants, la remise en cause de compétences établies et plus généralement par un appel général à la créativité et à l'innovation, notamment provenant des citoyens les plus jeunes et les moins résignés. Penser ainsi sera assimilé par les détenteurs actuels du pouvoir à une démarche véritablement révolutionnaire. Elle le sera effectivement. Et tant mieux.

C'est ce dont selon nous devraient dorénavant se convaincre les occupants non-violents des places Tahrir, Puerta del Sol, de la Bastille (?) et de la future Freedom Plaza, à Washington DC.

_____________________________________________________________________________________________

Chroniques vers l'infini.
3. Objets multiversaux

Jean-Paul Baquiast 10/06/2011

David Deutsch est sans doute le plus accompli des physiciens quantiques en activité à ce jour. D'une part, il maîtrise la technologie permettant un certain nombre d'applications impliquées dans la réalisation du calculateur quantique . Celles-ci, si elles étaient poursuivies, bouleverseraient l'ensemble des sciences reposant sur le calcul (nous y reviendrons ci-dessous).

D'autre part et surtout il refuse la capitulation intellectuelle consistant à dire, comme l'aurait parait-il affirmé le grand physicien Richard Feynman, que si l'on ne comprenait rien à la mécanique quantique, c'était parce que celle-ci était incompréhensible. Pour David Deutsch au contraire, si un certain nombre d'expériences portant sur des particules élémentaires (fentes ou interférences de Young, intrication, principe d'incertitude) produisent des résultats incompréhensibles pour la physique ordinaire dite macroscopique, c'est parce que les investissements intellectuels (et donc ajouterons-nous budgétaires) nécessaires pour les comprendre n'ont pas été faits.

Ajoutons pour notre part que les bonnes méthodologies, telles que celles préconisées par la Méthode de Construction Relativisée (MCR) précédemment évoquée dans ces chroniques, ne sont pas encouragées.

Certes les économistes et financiers qui décident de ce que doivent produire les sciences et les techniques pour être rentables n'ont pas hésité à soutenir les innombrables recherches et développements portant sur les applications de la physique quantique. Leurs usages militaires et civils ne sont pas discutés par les sociétés modernes.

Personne au contraire n'a jugé bon de former les esprits à mieux comprendre les paradoxes théoriques de la physique quantique. Ceci n'était pas considéré comme producteur de bénéfices à court terme. Au delà d'un rapport coût-rentabilité jugé défavorable, les décideurs, pour décourager de telles recherches, sont certainement motivés par un vieil interdit hérités des sociétés mythologiques et religieuses. Il ne faut pas que l'humain consomme le fruit de la connaissance. Le pouvoir potentiellement illimité dont bénéficient encore les théologies et les superstitions pour façonner l'avenir en serait ébranlé.

David Deutsch, à juste titre, n'accepte pas la pratique, mise à l'honneur dès le début de la mécanique quantique, dite des « interprétations », la plus célèbre et encore universellement enseignée étant celle de Copenhague. Le principe en est simple. Pour s'éviter de rechercher ce qui pourrait constituer en profondeur le tissu même de l'univers, on décide de ne pas théoriser. On ne formera donc pas de jeunes chercheurs pour cela. On se limite à mesurer ce que permettent de mesurer les instruments actuels. Si l'on ne peut connaître simultanément la position et l'impulsion de ce que l'on nomme une particule, on se bornera à utiliser les représentations probabilistes découlant de la fonction d'onde. Ceci suffira largement pour construire d'excellents lasers. Le tout à l'avenant.

Ainsi le fameux principe dit d'incertitude est trompeur. (misleading) . Il n'y a d'incertitudes que celles auxquelles on se résigne. Si les théories actuelles génèrent de l'incertitude, il faut en trouver d'autres qui seront de plus grande portée. Pour David Deutsch, autant que nous puissions le comprendre, la démission des physiciens théoriciens est un déni à l'égard de l'esprit, analogue au « Circulez, il n'y a rien à voir » courant sur les scènes de crimes.

David Deutsch voit tout autrement le monde quantique, celui que nous pourrions d'ailleurs nommer en reprenant le terme de Mioara Mugur-Schächter le monde infra-quantique. Il n'est pas possible dans cette courte présentation de résumer la pensée de David Deutsch. Ses différents ouvrages et articles en donnent un aperçu. Reconnaissons-le, l'abord en reste difficile pour des lecteurs que l'on n'a jamais encourager à raisonner de cette façon.

Disons seulement que pour lui, afin de décrire l'univers « profond » dont notre propre univers n'est qu'une émergence, le terme de multivers est le plus approprié. Ceci n'a pas grand chose à voir avec les « histoires » d'univers parallèles décrits par la science-fiction (encore que...). Chacune des particules composant notre univers, à commencer par celles dont nous sommes faits, est un « objet multiversel » irréductible. Il ne s'agit pas du tout d'une superposition d' « histoires » parallèles. Ainsi l'électron dispose de multiples (une infinité) de positions et de vitesses sans pouvoir être divisible en sous-entités autonomes disposant chacune de sa position et de sa vitesse.

La réalité de l'électron est un « champ » d'électron à travers l'espace, parcouru de perturbations prenant la forme de vagues et se propageant à la vitesse de la lumière et au dessous. On ne peut donc pas dire que l'électron soit à la fois une onde et une particule. Il n'existe dans l'univers global ou multivers que des champs correspondant à chacune des particules individuelles que nous observons dans notre univers particulier. Ceci bien entendu s'exprime mieux dans le langage mathématique, mais peut cependant l'être dans le langage courant. Le « multivers universel » existe en soi, indépendamment des représentations que les humains peuvent s'en donner. Celles-ci, comme les humains eux-mêmes, sont des phénomènes émergents, des objets multiversaux, au sein de ce multivers.

Indiquons que, dans un autre chapitre de son livre, consacré non au multivers quantique mais aux multivers cosmologiques, qui émergent par excitation du multivers universel dont notre univers semble n'être qu'un phénomène parmi d'autres, David Deutsch évacue l'argument selon lesquels les lois fondamentales de cet univers particulier traduisent des règles universelles pouvant s'appliquer au multivers. Ces lois et leur prétendu « ajustement fin » (fine tuning ) présenté comme seul capable de permettre la vie, ne sont que des émergences, parmi bien d'autres que nous ne percevons pas pour le moment.

Toute application anthropique ou théologique de cet état de fait serait donc abusif. L'espoir est donc permis de pouvoir, pourquoi pas dès maintenant ? s'affranchir de ces lois pour mieux comprendre le multivers quotidien qui est le nôtre. Nous sommes en effet, rappelons-le, à une certain échelle, des objets multiversaux.

On voit qu'en suivant David Deutsch, nous pourrions faire apparaître d'immenses territoires de la physique susceptibles de justifier des études et recherches scientifiques s'inspirant de l'esprit des Lumières. Evidemment, ces territoires ont déjà été abondamment envahis par les faiseurs de mythes. Ils le seront de plus en plus au fur et à mesure que la science les précisera. Mais ceci ne devrait pas être une raison pour que la pensée rationnelle et la science refusent de s'y intéresser. Les applications pratiques en apparaîtront d'ailleurs elles-aussi innombrables. Voilà qui devrait intéresser les jeunes inocupados et indignados de nos places urbaines, rejetés aujourd'hui par le Système de la finance et de la richesse.

Des perspectives infinies


Pour ceux que rebutent les spéculations portant sur le monde physique et cosmologique, David Deutsch rappelle qu'un grand nombre de recherches fondamentales sont aujourd'hui condamnées par le « Circulez, il n'y a rien à voir » qu'imposent aux humains les dictatures combinées des pensées théosophico-mythologiques et du profit financier. Il évoque un certain nombre de domaines, bien connus des lecteurs de ce site, où les pundits ont trop vite décidé qu'il n'y avait rien à voir, ou plus exactement rien à creuser.

C'est le cas de la conscience supérieure et des qualia (que les humains d'ailleurs ne sont sans doute pas les seuls êtres vivants capables d'éprouver). C'est le cas du codage génétique, dont la complexification s'est trouvée arrêtée au cours de l'évolution biologique darwinienne, au détriment de l'apparition de formes de vie bien plus évoluées que celles connues aujourd'hui. C'est le cas de l'intelligence artificielle et de la biologie synthétique, qui sont volontairement cantonnées aujourd'hui aux prolégomènes de ce que ces sciences pourraient permettre. C'est le cas enfin et surtout de la computation quantique, à laquelle on pourrait ajouter la computation par ADN. L'une et l'autre, convenablement développées, pourraient permettre de créer à partir de l'énergie et des atomes élémentaires bien plus de ressources physiques, chimiques et biologiques que ne l'a fait spontanément depuis son apparition notre univers laissé à lui-même.

Bien évidemment, dans le même temps que des humains (des systèmes anthropotechniques, selon notre terminologie) développeraient de telles recherches, ils se transformeraient eux-mêmes. On verrait apparaître, selon la terminologie à la mode, des transhumains ou posthumains encore aujourd'hui pratiquement indescriptibles, puisque les lois scientifiques avec lesquelles ils co-évolueraient n'existent pas encore.

Nous n'en dirons pas plus ici. Nous nous bornerons à suivre en esprit David Deutsch lorsqu'il envisage la possibilité que ces humains de demain implantent dans l'univers, à l'infini, des sociétés s'inspirant des principes pour lui (et pour nous) incontournables de la rationalité et des Lumières.

D'où le scandale qu'est aujourd'hui la fermeture, pour le plus grand profit des oligarchies financières, des laboratoires et des universités susceptibles de se consacrer sans limites a priori aux recherches fondamentales (Blue sky Research).

Repost 0
8 juin 2011 3 08 /06 /juin /2011 07:46

Dans la 4e de couverture de son livre (voir ici et aussi  http://www.admiroutes.asso.fr/larevue/2011/118/deutsch.htm ), David Deutsch précise que les anciennes façons de se représenter le monde ne pouvaient, au contraire de la science, corriger leurs erreurs. Les idées en découlant demeuraient donc statiques pendant des siècles. Reposant sur de mauvaises explications, elles avaient peu de portée et n'étaient guère utilisables, y compris dans leurs applications pratiques. L'apparition de la science, sous la forme symbolisée par le terme d'Enlightment (Les Lumières) a marqué la fin, tout au moins dans les sociétés s'y référant, de ce que l'auteur nomme des théories « de clocher » (parochial) incapables d'évoluer. Les Lumières ont initialisé pour la première fois dans l'histoire humaine, une ère de création continue de connaissances, de plus en plus rapide et dotée de portées de plus en plus grandes. Ce processus trouvera-t-il des limites ou pourra-t-il s'étendre à l'infini? Autrement dit les méthodes scientifiques pourront-elles créer un champ illimité de connaissances et de savoir?

La conviction de l'auteur le porte à une réponse affirmative. Tout le livre constitue un vibrant plaidoyer pour la méthode scientifique. Nous ne pouvons que le suivre dans cette conviction. Encore faut-il, dans l'esprit même de cette méthode, critiquer en permanence les doctrines philosophiques qui pour des raisons diverses en limitent la portée. Le livre commence donc par l'énumération de telles doctrines. Il mentionne l'empirisme, pour qui les théories scientifiques, autrement dit les tentatives d'explication ou de compréhension du monde, dérivent par déduction ou induction des messages des sens. Or la nature ne comporte pas de « faits » qu'il suffirait de lire. L'expérience ne peut donc être seule à la source des théories. Celles-ci sont des conjectures ou suppositions faites par le cerveau. L'expérience ne sert qu'à les mettre à l'épreuve et à retenir celles qui sont les plus pertinentes. Certes l'empirisme et l'inductivisme qui en découle ont représenté un grand progrès par rapport aux descriptions dogmatiques du monde, mais ils ont fait oublier que la science moderne se construit bien au delà des messages des sens. De plus ces doctrines postulent que le futur sera (probablement) semblable au passé. Ce que précisément dément tous les jours l'expérience.

 

Pour proposer de nouvelles explications du monde, il faut faire acte de créativité. La créativité est une propriété essentielle de l'humain. David Deutsch consacre de longs développements destinés à comprendre comment elle l'est devenue. Pour lui, elle est entrée par la petite porte, si l'on peut dire. Les cerveaux des préhumains, pense-t-il, se sont développés du fait des efforts mis par les jeunes et les dominés pour comprendre les intentions profondes des dominants, au lieu de se borner à des imitations automatiques. Ce ne fut que bien plus tard que ces mêmes cerveaux ont tenté de comprendre, au delà des apparences, ce que pouvaient être les intentions, si l'on peut dire, de la nature. La créativité suppose, pour progresser, le faillibilisme, c'est-à-dire la conviction que les hypothèses ou conjectures proposées sont nécessairement fausses mais peuvent être améliorées en continu par la critique, de nouvelles conjectures et le recours à l'expérience permettant de départager les hypothèses.

 

Certes, la créativité des humains n'a pas attendu les Lumières pour s'exprimer. Pendant des centaines de millions d'années de lents progrès se sont fait, à l'occasion (comme nous l'avons nous-mêmes rappelé dans « Le paradoxe du Sapiens ») de la symbiose de fait s'étant établie entre les composantes biologiques de l'homme (ou bio-anthropologique) et les outils et instruments se développant en parallèle. Mais ce progrès a été freiné par la soumission aux autorités ou aux Anciens. La science moderne n'a pu s'épanouir que dans la rébellion. Il s'agit là d'un message très politique que nous retrouverons nécessairement aujourd'hui.

 

La rébellion, facteur indispensable du progrès scientifique, doit d'abord s'exercer à l'encontre des formes aujourd'hui dominantes prises par les théories scientifiques mais aussi et tout autant à l'encontre des critiques non-scientifiques et partisanes s'exerçant à leur égard. Dans tous les cas, comme indiqué précédemment, les nouvelles formes issues de la rébellion intellectuelle contre les autorités ou les modes doivent être testables pour être crédibles. Autrement dit, les théories doivent faire des prédictions susceptibles d'être démontrées comme fausses, ou falsifiables, selon le terme de Popper.

 

Sur le réalisme

 

Cependant, la testabilité ne suffit pas. Beaucoup d'idées fausses donnent l'impression d'être testables et d'être subséquemment vérifiées par l'expérience. Il faut aller au delà de théories purement prédictives, même en faisant appel aux instruments. Le recours aux instruments pour en faire les seuls fondements de la connaissance, dit instrumentalisme, dénie en fait la possibilité qu'existe un réel se situant au delà des capacités d'exploration des instruments actuels, que les conjectures devraient s'efforcer d'approcher progressivement. David Deutsch s'inscrit donc dans la tradition épistémologique du réalisme. Mais cette position peut susciter de nombreux malentendus. Expliquons la.

 

Il estime, comme la plupart des scientifiques, qu'il existe un monde physique réel, et que celui-ci peut être approché ou exploré à partir de conjectures rationnelles. Il s'oppose ainsi non seulement à l'instrumentalisme étroit mais au relativisme, au culturalisme, au post-modernisme et autres formes de non-réalisme supposant que le réel prétendu est une création du cerveau ou de la société humaine et ne peut servir de support à la mise à l'épreuve des connaissances scientifiques.

 

Le point est important. Il semble en opposition avec des positions que nous avions prises précédemment, dans différents articles et dans notre ouvrage de 2007, « Pour un principe matérialiste fort ». Dans cet esprit, nous avions donné plusieurs fois la parole à la physicienne quantique Mioara Mugur Schaechter, qui promeut la Méthode dite de Construction Relativisée (MCR). Celle-ci, indispensable selon elle en physique quantique, peut-être étendue aux sciences du domaine macroscopique. Elle ne nie pas l'existence d'un réel sous jacent à toute expérience, ce qui serait absurde et reconduirait au Moyen-âge de la pensée mythologique. Elle affirme seulement que les représentations que nous nous donnons de ce réel ne peuvent être déduites d'affirmations a priori sur ce que doit être ce réel s'inspirant de descriptions philosophiques, politiques ou religieuses de type essentialiste (Réalisme dit des essences), le plaçant précisément à l'écart de toute vérification expérimentale.

 

Pour MCR, les modèles que la science se donne du Réel doivent tenir compte des instruments utilisés et de la nature des observateurs faisant appel à ces instruments. Ils doivent donc de ce fait rejeter tout argument d'autorité expliquant que le Réel ou tout élément de ce réel (la particule, le gène, la cellule) existent en eux-mêmes, sont ainsi et non autrement. On ne voit pas pour quelles raisons David Deutsch refuserait cette approche.

 

Contre l'anti-anthropocentrisme

 

Recourir à l'expérience pour mettre à l'épreuve des hypothèses ou des théories suppose qu'au moins deux de celles-ci s'opposent. Les conflits entre théories ou plus généralement entre idées explicatives signalent l'existence de problèmes. Résoudre un problème consiste à trouver une explication qui fasse disparaître le conflit. Le conflit n'est évidemment pas dans la nature, mais entre les explications ou interprétations que nous donnons à nos observations. Cependant il y a de mauvaises explications et de bonnes explications. Les mauvaises explications ne permettent pas le recours à la démarche scientifique expérimentale. Il s'agit par exemple des explications mythologiques. Une société ouverte aux dialogues, acceptant les contradictions et les conflits, obtient plus facilement de bonnes explications que ne le font les sociétés fermées, autoritaires. Les Lumières se sont développées en Europe précisément en parallèle avec la perte d'influence des Anciens Régimes politico-sociaux.

 

L'histoire des théories scientifiques montre qu'elles n'ont pu progresser, (élargir leur portée) qu'en se débarrassant progressivement des références à l'homme. Autrement dit, elles ont du abandonner l'anthropocentrisme. L'homme n'est pas grand chose à l'échelle de l'univers. Cependant, David Deutsch insiste sur la nécessité de ne pas tomber dans le défaut inverse, oublier que jusqu'à plus amples informations, il n'existe nulle part ailleurs dans l'univers de systèmes biologiques (ou anthropotechniques selon notre terminologie) capables de construire dans leur cerveau et avec leurs instruments des modèles apparemment pertinents des endroits les plus lointains de l'univers. Il s'élève donc à cet égard contre la mode de l'anti-anthropocentrisme qu'il assimile au désastreux, selon lui, Principe de médiocrité. Selon ce principe, il n'y aurait rien de significatif dans l'existence de la culture humaine, assimilée à une quelconque écume chimique (chemical scum selon Hawking) proliférant dans une quelconque partie de l'univers. Si cela était mieux vaudrait renoncer à tout effort de recherche scientifique pour s'en tenir aux approches de clocher (parochialism) ou à vue de nez (by rule of thumb).

 

Nous ne pouvons que le suivre dans cette intention. Même si la tentation existe dans certains esprits d'imputer les capacités de l'intelligence humaine à une intervention divine, il serait bien plus désastreux encore de ne pas chercher à comprendre comment, dans la suite des civilisations anthropotechniques, ont pu apparaître des machines universelles à expliquer le monde (universal explainer) et à le modifier (universal modifier), telles que les humains. Ceux-ci sont devenus ainsi des constructeurs universels (universal constructor). Pourquoi? Il s'agit là d'un des « hard problems » que la science de demain devra aborder, parmi un certain nombres d'autres dont nous donnerons la liste. Il est d'autant plus difficile à résoudre que, comme celui de la conscience, il nous inclut en nous empêchant de l'observer facilement de l'extérieur.

 

Une autre illusion contre laquelle s'insurge David Deutsch est celle dite de la Terre vaisseau spatial (Earth Spaceship). Elle assimile la Terre à un vaisseau certes favorable à la vie, mais aux ressources limitées. Selon les modes intellectuelles et politiques d'aujourd'hui, les humains seraient en train, par leurs abus divers, démographiques et autres, d'en épuiser les ressources. Il découle de cette philosophie du pessimisme , culminant dans le catastrophisme, que diverses catastrophes sont en cours ou a prévoir. Il faudrait donc réduire d'urgence non seulement les consommations mais les recherches scientifiques et techniques dont le déchainement accélère la disparition des processus jusqu'ici en oeuvre pour permettre la vie sur Terre.

 

Or ceci repose, selon David Deutsch, sur deux erreurs. D'une part la Terre n'est en rien un milieu favorable à la vie. Au contraire, depuis les 4 milliards d'années d'apparition de celle-ci, elle a failli l'anéantir un grand nombre de fois. Les êtres vivants ne survivent, sans exceptions, qu'à la limite de l'extinction. Si les hommes ont pu échapper à cette loi d'airain, ce fut notamment en faisant appel à la science qui a progressivement permis de réparer les catastrophes naturelles les menaçant en permanence. La seconde erreur serait donc de condamner la science, comme destructrice, alors qu'elle s'est toujours montrée salvatrice.

 

Ceci n'empêcherait pas d'éviter certains excès technologiques (et encore, lesquels se demande Deutsch?) mais n'obligerait certainement pas à revenir aux ères préscientifiques. Aujourd'hui, les potentiels de survie offerts par la Terre ont été fournis non par l'environnement terrestre et pour les humains, mais par les humains du fait de leurs efforts acharnés pour élargir les explications scientifique du monde et le modifier en conséquence. Ceci continue à s'imposer, d'autant plus que la résolution des anciens problèmes fait apparaître tout naturellement de nouveaux problèmes, à résoudre de la même façon, par la science.

 

L'optimisme méthodologique

 

L'optimisme que David Deutsch professe à l'égard de la science s'oppose directement au principe de médiocrité et à la métaphore de la Terre vaisseau spatial. Pour lui, et là encore nous ne pouvons qu'approuver ce point de vue, les systèmes anthroposcientifiques que nous sommes n'ont aucune raison de penser qu'ils ne pourront pas, parce qu'ils ne seraient pas assez exceptionnels pour cela, résoudre de plus en plus de problèmes, étendant de plus en plus loin leur portée, sur la Terre et dans l'univers. Il propose donc de remettre à l'honneur le concept de progrès, si vilipendé aujourd'hui. Un progrès est possible, découlant du développement à l'infini des connaissances scientifiques. Il portera aussi bien sur la connaissance de l'univers que sur l'insertion des humains dans celui-ci, aux plans biologiques, intellectuels, moraux et artistiques.

 

Dans l'immédiat, il n'y a aucune raison de penser comme le font divers scientifiques pessimistes, que le cerveau humain, notamment assisté des ressources de l'intelligence artificielle et d'instruments associés, ne puisse comprendre les points qui demeurent encore des mystères pour la science d'aujourd'hui. Comme le progrès n'est ni prévisible, ni programmable, il fera apparaître dans l'avenir des solutions dont nous n'avons pas la moindre idée aujourd'hui. Les mystères se résoudront mais d'autres, comme rappelé ci-dessus apparaîtront. Le moteur de cette évolution sera la connaissance scientifique du monde, implémentée et matérialisée dans les cerveaux et dans les outils des systèmes anthropotechnoscientifiques.

 

Les mouvements politiques réactionnaires hérités du passé ou proliférant sur les problèmes du temps présent diront qu'il s'agit là de mensonges répandus par les industriels ou les puissances dominantes pour faire croire aux peuples que le recours à la science peut les sauver des catastrophes, au lieu de s'en remettre à la décroissance et au retour à la nature. Mais comme nous l'avons rappelé en commentant les révoltes des jeunes Insurgés se développant tout autour du monde en ce moment, ce sera précisément en éloignant ces jeunes des ressources de la science que les oligarchies dominantes continueront à imposer leur domination. Sortir du Système de la domination par l'ignorance ainsi imposé aux peuples consistera à faire la révolution des connaissances. Il faudra pour cela que les peuples se mettent en état d'occuper et utiliser les ressources des laboratoires et autres lieux de production des connaissances. Vaste programme. Nous y reviendrons.

 

(à suivre)

 

 

Repost 0
7 juin 2011 2 07 /06 /juin /2011 08:52

 

 

David Deutsch est Visiting Professor à l'Université d'Oxford et membre du Center for Quantum Computation au Clarendon Laboratory de cette même Université. Il a écrit de nombreux articles sur la physique quantique et le calcul quantique qui font de lui une référence mondiale quoique non orthodoxe dans ces domaines difficiles. Il a reçu deux prix pour ces travaux. Voir sa page personnelle http://193.189.74.53/~qubitor/people/david/index.php Voir aussi Wikipedia http://en.wikipedia.org/wiki/David_Deutsch

Article temporaire, en cours de construction. Date de la présente version 06/06/2011


Dans notre commentaire ( http://www.automatesintelligents.com/biblionet/2004/jan/deutsch.html ) du précédent livre de David Deutsch, « The Fabric or Reality » 1997, version française Cassini 2003,« L'étoffe de la réalité », nous avions cru pouvoir en signaler l'importance et celle de son auteur pour une réflexion critique sur l'avenir des connaissances scientifiques et la politique de la science.

Ce nouvel ouvrage « The Beginning of Infinity » confirme plus qu'amplement ce jugement. Il est si important, par l'étendu des thèmes qu'il aborde et l'intensité de son regard critique, que nous ne nous souhaitons pas en limiter la présentation à ce seul article. Nous discuterons par la suite certaines des grandes questions évoquées par l'ouvrage dans ce que nous nommerons des « Chroniques vers l'infini », reprenant le thème de l'auteur. Elles seront publiées sur notre site en lien avec le présent texte.

Mais il nous faut en priorité nous semble-t-il attirer l'attention des lecteurs de notre revue Automates Intelligents et de nos blogs par une courte introduction portant sur l'importance d'un travail qui risque de passer inaperçu du public français. Ceci du fait qu'il n'est pas encore traduit, qu'il comporte près de 500 pages difficiles et que l'auteur se heurtera probablement à un certain mur du silence provenant des ténors de la communauté scientifique et « épistémologique ». La virulence et - pensons-nous- la justesse de ses remises en cause ne lui feront pas que des amis. A l'inverse, il peut déjà se féliciter de certains soutiens enthousiastes, parmi lesquels, bien qu'il soit de faible poids, le nôtre.

Le livre compose dans l'ensemble une admirable défense et illustration de la méthode scientifique rendue célébre sous le nom de « Enlightment » (Les Lumières), qui s'est développée principalement en Occident depuis le 20e siècle. Aujourd'hui, cette méthode, bien que généralement appliquée de fait par tous ceux qui veulent comprendre et transformer le monde, aussi bien au plan technologique que conceptuel, est critiquée de toute part. L'Europe, qui en aurait le plus grand besoin pour sortir de son indiscutable déclin actuel, s'en détourne au profit de thèses prônant la stagnation sinon le recul de la science et de ses applications. Les Etats-Unis eux-mêmes ne s'y intéressent plus que sous l'angle de leur important programme de recherches militaires, dont le moins que l'on puisse dire est qu'il ne bénéficie pas à l'ensemble des recherches civiles.

Bien évidemment, dans ce contexte, les agressions des religions qui n'avaient jamais diminué depuis les Lumières reprennent de plus belle, au prétexte que ce décrit la science ne figure pas dans les Textes dits sacrés, du fait surtout que la méthode dérange la belle assise millénaire faite de la conjonction des pouvoirs spirituels et temporels pour créer des « sociétés fermées » incapables d'échapper seules à leur emprise.

Le propre de la méthode scientifique est de générer en permanence des hypothèses d''explications du monde allant plus loin que les explications précédentes, mais comme elles destinées à être critiquées et dépassées. L'humain engagé dans la méthode scientifique se comporte ainsi comme une machine universelle à essayer d'expliquer le monde en étendant sans cesse, par la critique de ses propres propositions, la portée de ces explications. Ce faisant il le transforme. Il utilise pour cela les instruments technologiques qu'il a développés, mais il refuse en permanence de se laisser enfermer pas les apparents « faits d'observation » ou les lois en découlant, déduites de ces observations instrumentales, comme le font les scientifiques dits « instrumentalistes ».

De ce fait, pour David Deutsch, la méthode scientifique doit s'appuyer sur deux postulats: 1. elle suscite inévitablement des problèmes de toutes sortes et 2. ces problèmes peuvent être résolus par elle - suscitant d'autres problèmes qu'il faudra résoudre à leur tour. La science ne doit donc pas chercher à éviter ou fuir les problèmes, qu'ils soient théoriques ou sociétaux, comme le recommande le catastrophique « principe de précaution » mais au contraire s'attacher à les résoudre en donnant de ce fait une nouvelle portée à l'explication scientifique globale du monde. Nous reviendrons ultérieurement de façon plus détaillée sur ces points importants de méthodologie.

La guerre menée contre la science par le Système

Mais nous pensons qu'il faut aller plus loin dans la critique politique, afin de comprendre pourquoi la méthode scientifique - à propos de laquelle nous rereprendrons les excellentes approches épistémologiques de David Deutsch (lui-même très inspiré par le dernier Karl Popper), se heurte aujourd'hui à un véritable effort de destruction, analogue à celui ayant entraîné la chute des premières Lumières, celles de la civilisation athénienne, sous les offensives de la ville de Sparte entièrement tournée vers la conquête militaire.

David Deutsch (tout au moins dans son livre qui par la force des choses ne peut tenir compte des évènements politico-économiques les plus récents) n'insiste pas assez selon nous sur les causes de la mise en question actuelle de la méthode et de la pratique scientifique. Nous évoquons ici ce véritable cancer qui s'est étendu sur la planète entière avec la prise du pouvoir politique par la troïka des trois oligarchies associées, celles de la richesse, du capital financier et des médias.

Le mécanisme de cette prise de pouvoir est simple. Il s'est mis en place très rapidement. L'objectif en est de mobiliser la force de travail du monde en ne laissant aux travailleurs de la base, quels qu'ils soient, manuels ou intellectuels, qu'un minimum vital dépendant du niveau de développement des sociétés auxquels ils appartiennent. Le surplus est détourné et accumulé au profit des trois parties de la troïka. Pour les membres de celle-ci, en dehors des investissements militaires et de sécurité qui leur sont indispensables, ne comptent plus que les technologies s'inscrivant dans une perspective simple: produire en 2 ou 3 ans des résultats susceptibles de rapporter des taux d'intérêts de plus de 10%, par exemple dans tous les services privatisés pour riches ou dans des domaines comme la cosmétique susceptibles d'appâter un grand nombre de consommateurs illusionnés.

Il s'agit bien là d'un véritable Système, qu'il faut commencer à décrire en termes aussi scientifiques que possible, pour en sortir où même le détruire. Les concepts d'Etat protecteur du plus grand nombre et de services publics financés par la contribution de tous, constituent le premier rempart contre lequel s'est mobilisé le Système. Plus précisément, la recherche scientifique désintéressée, non programmable, aboutissant à une remise en question permanente des lois et connaissances du moment, reposant sur la critique et le dialogue , se présente pour le Système comme un danger à neutraliser. Il en résulte des situations comme celle que nous évoquions dans un article récent « Indignados, que faire de votre (notre) indignation ? » .

On voit la société occidentale, soumise au Système, n'offrant que le chômage ou des emplois précaires à des jeunes qui disposent potentiellement de la capacité intellectuelle et des connaissances scientifiques nécessaires à la création d'un monde entièrement renouvelé. Celui-ci, selon la vision de David Deutsch que nous partageons, reposant sur des acquis de savoir infiniment élargissables, pourrait augmenter quasiment à l'infini, au cours du temps, les possibilités des humains et de leurs idées associés aux instruments de la science et au renouvellement permanent des connaissances en découlant, entités que nous nommons pour notre part des systèmes anthropotechniques ou mieux, anthroposcientifiques.

Au plan de la connaissance fondamentale, les questions considérées encore comme innaccessibles au cerveau humain pourraient être résolues. Ceci parce que les cerveaux et les instruments de demain ne seront plus ceux d'aujourd'hui. Mais d'autres questions encore plus profondes, que l'on se rassure, seront apparues.

Face au scandale consistant à laisser en friche les cerveaux des jeunes d'aujourd'hui, une véritable révolution s'imposerait. Nous pourrions la définir sommairement comme la récupération des puissants moyens des laboratoires par des communautés politiques et sociales décidées à s'en servir pour poursuivre en avant la marche des Lumières. Nous reviendrons ultérieurement sur cette idée pour la préciser.

Malheureusement pour le moment les victimes du Système n'ont encore que des idées vagues relatives à la façon d'en sortir. Les mouvements politiques, y compris ceux dits de gauche, qui sont en général inféodés en Système, se gardent bien d'aborder des thèmes comme ceux développés dans le livre de David Deutsch. Il s'agit là de leur part d'une trahison que personne malheureusement ne dénonce.

La révolution nécessaire sera difficile, voire quasiment improbable. Il est possible cependant d'esquisser les voies permettant d'y parvenir. C'est ce que fait pour sa part David Deutsch, visionnaire réaliste d'une telle révolution. Nous allons essayer de le montrer.

( à suivre)
Repost 0

Articles Récents

Liens