Overblog Suivre ce blog
Administration Créer mon blog

Texte libre


Pourquoi ce blog ?

Cet ensemble de textes a été conçu à la demande de lecteurs de la revue en ligne Automates-Intelligents souhaitant disposer de quelques repères pour mieux appréhender le domaine de ce que l’on nomme de plus en plus souvent les "sciences de la complexité"... lire la suite

Recherche

29 janvier 2013 2 29 /01 /janvier /2013 22:08

 



Présentation et commentaires par Jean-Paul Baquiast 20/01/2012

 

 

George Church est professeur de génétique à la Harvard Medical School, Directeur de PersonalGenomes.org, qui rassemble des personnes volontaires pour mettre en libre accès, à des fins de recherche, les données provenant d'une analyse approfondie de leurs génomes. Son PhD obtenu à Harvard en 1984 comportait les premières méthodes permettant de séquencer directement les génomes. Il en est résulté une initiative visant à commercialiser le génome d'un pathogène (le Helicobacter pylori) en 1994 .

Ses innovations portant sur ce que l'on nomme la seconde génération d'analyse et de synthèse des génomes et des cellules et tissus correspondants ont conduit à la création de 12 compagnies commerciales offrant des services dans la génomique médicale ( Knome, Alacris, AbVitro, GoodStart, Pathogenica ) et la biologie synthétique ( LS9, Joule , Gen9, Warp Drive ). Il participe à la définition de politiques publiques nouvelles en matière de protection de la vie privée, bioprotection et biosécurité.

Il est directeur du National Institutes of Health Center for Excellence in Genomic Science http://ccv.med.harvard.edu/ qui étudie les meilleures méthodes permettant d'intervenir à des fins thérapeutiques sur le génome humain


Pour en savoir plus

* Page personnelle http://arep.med.harvard.edu/gmc/
* Wikipedia http://en.wikipedia.org/wiki/George_Church

 

iGEM 200 à Harvard, avec l'auteur. Voir l'article et le lien
http://openwetware.org/wiki/IGEM:Harvard/2010

La thèse développé par les auteurs, comment réinventer la nature et l'homme lui-même, est devenue courante aux Etats-Unis, au moins chez les scientifiques, beaucoup moins en Europe. Elle y heurte, outre le retard technologique encore trop fréquent, d'innombrables préjugés d'ordre religieux et même politiques. Il suffit de laisser entendre que l'on aborde la question des organismes génétiquement modifiés (OGM) pour se faire accuser de parler au nom des semenciers industriels, tels Monsanto, lesquels s'efforcent d'imposer leurs produits à l'ensemble du monde agricole.

Nous retrouverons dans le cadre de cet article la question très importante largement abordée dans le livre: comment commercialiser les produits de la recherche génétique sans mettre en péril les droits des individus et plus généralement le libre accès aux ressources scientifiques. Disons que George Church a durant toute sa carrière voulu – selon nous avec succès - concilier ces deux exigences. Si effectivement il convient de lutter contre les entreprises (et dans certains pays les gouvernements) qui voudront monopoliser le domaine de l'ingénierie génétique au service de leurs stratégies, il convient bien plus encore de prendre conscience de la véritable révolution scientifique et sociétale qui est en cours sous ce nom, afin d'encourager les acteurs qui s'y investissent.

Regenesis, le livre dont George Church est le principal auteur, constitue à cet égard un véritable révélateur, y compris d'ailleurs aux Etats-Unis où les milieux conservateurs, principalement religieux, lui opposent une vive résistance. En France, nous pouvons avancer sans risque que sa lecture (à supposer qu'il soit rapidement traduit) constituera une véritable découverte. Même à ceux qui, comme nous, pensent que deux révolutions majeures se produisent actuellement en science, la robotique autonome et la biologie synthétique, le livre apporte un grand nombre de références et de sujets de réflexion sur ce dernier sujet qui n'étaient pas disponibles avant lui, au moins sous une forme aussi synthétique et – disons le – agréable à lire. Sur ce dernier plan, la culture scientifique de l'auteur est considérable mais il sait aussi rendre attrayants les sujets les plus complexes. Même sans traduction, hors les passages techniques, le livre est tout à fait lisible, sans exiger une anglophonie poussée.

La grande idée qui inspire l'ouvrage est relativement simple. Elle est en voie de démonstration dans un nombre de plus en plus grand de pays. Elle est d'ailleurs de plus en plus discutée, sans que cela soit nécessairement à bon escient, le cas de Monsanto obligeant. Résumons là en une phrase: il est désormais possible, non seulement d'analyser les gènes (ADN) d'un nombre exponentiel d'espèces, allant du virus à l'humain, mais aussi de modifier ces gènes afin d'obtenir de nouveaux organismes. Ce processus est devenu courant dans les laboratoires spécialisés. Appliqué aux bactéries, il commence à produire des retombées intéressantes, en termes commerciaux mais aussi de santé publique. Des protéines susceptibles d'usages médicaux ou industriels peuvent être produites, à des échelles devenant suffisantes pour être exploitables.

La première difficulté à résoudre consistait à analyser l'ADN et son partenaire dans la vie cellulaire, l'ARN. Quant on sait qu'il s'agit de chaines de composés chimiques, les nucléotides 1), présents par milliers à l'état moléculaire, c'est-à-dire à l'échelle de l'atome, au sein d'organismes microscopiques, les cellules et même les virus 1) on mesure l'exploit correspondant. Ce travail a été entrepris et réussi dans les années 1980 grâce aux travaux sur l' Arabidopsis thaliana. Cette plante présente un petit génome de cinq chromosomes, dont l'ADN a été entièrement analysé en 2000. L'arabidopsis est devenue un organisme modèle utilisé dans la communauté scientifique pour les études génétiques et de biologie moléculaire.

Depuis lors, les génomes d'un nombre considérables d'organismes ont été séquencés, avec des méthodes de plus en plus industrielles. Le mouvement a pris une grande importance avec la démarche que nous avons ici commentée dans plusieurs articles, le Human Genome Project. George Church s'est beaucoup impliqué personnellement dans le développement de ce grand projet multinational. Il a pris dans ce cas des positions beaucoup plus ouvertes et moins « propriétaires » que celles défendues par Craig Venter. Ce dernier, au moins en France, est beaucoup plus connu que George Church, mais cela tient selon nous au bruit médiatique que Venter sait organiser autour de lui.

Bien évidemment, mettre en évidence et répertorier de grandes catégories de séquences de nucléotides ne constitue qu'un premier pas. Pour comprendre à quoi correspondent ces éléments, il faut les analyser un par un, ce qui représente un énorme travail – même si une grande partie de ces éléments dits junk ou poubelle, ne semblent plus en usage dans les organismes d'aujourd'hui. Autrement dit, il faut interpréter les génomes, montrer à quoi correspondent leurs éléments, notamment concernant la synthèse des protéines intervenant dans la reproduction et le fonctionnement, d'abord de la cellule, ensuite de l'organisme. Ceci n'avait avant les années 2000 été entrepris qu'à très petite échelle, dans la perspective d'analyser en priorité les anomalies génétiques facilement identifiables produisant des conséquences pathologiques. Là encore cependant l' « industrialisation » des démarches permet aujourd'hui de constituer des bases de données génétiques recensant les éléments progressivement découverts, afin de faciliter de nouvelles recherches. Le rythme de développement serait selon les experts égal à celui défini par la Loi de Moore concernant les capacités des semi-conducteurs électroniques.

Des mutants

Mais que faire de tout ceci? Là se pose la grande question, sur laquelle George Church s'étend longuement. L'objectif a d'abord été de modifier l'ordre des composants de l'ADN d'un organisme, afin d'obtenir de véritables mutants. Cette démarche est désormais entreprise à grande échelle, concernant des bactéries telles qu' escherichia coli ou autres analogues, se reproduisant facilement et peu exigeantes en nutriment. Une grande partie de ce que l'on nomme désormais le filon des biotechnologies consiste à produire de nouveaux composés ayant un valeur thérapeutique ou économique à partir de telles bactéries dont le génome a été modifié en ce sens. La recherche s'intéresse ainsi de plus en plus aux bactéries et microorganismes utilisant la lumière solaire pour synthétiser des produits organiques à partir du CO2 et de l'eau. L'objectif est, entre autres, d'obtenir des biocarburants n'obligeant pas à mobiliser des terrains agricoles.

Dans un second temps, l'objectif est devenu plus ambitieux: créer des organismes multicellulaires complexes, dotés d'un génome entièrement construit, soit à partir d'éléments prélevés dans des ADN biologiques et assemblés autrement, soit à partir de composants élaborés sur le mode de l'ADN mais provenant de la chimie organique. Le vocabulaire n'est pas encore fixé complètement. On parle cependant dans le premier cas de biologie artificielle et dans le second cas de biologie synthétique.

Pour que dans tous ces cas les procédures proposées puissent être menées à l'échelle industrielle, c'est-à-dire traiter des millions ou centaines de millions de nucléotides, il faut mettre au point des machines économiquement abordables et éliminant le maximum d'erreurs susceptibles de rendre les produits finaux inutilisables. Il semble à le lire que George Church ait joué un rôle très important dans la conception et le développement de telles machines. L'industrialisation n'en est encore cependant qu'à ses débuts, un peu comme l'était la machine à vapeur de James Watt au début de l'ère industrielle.

Mais pour quoi faire? Les objectifs peuvent être très divers. Résumons les principaux:

– obtenir des chimères végétales ou animales dotées de caractères facilitant leur adaptation à des changements de l'environnement (par exemple le changement climatique ou l'épuisement de certaines ressources) ou bien créer des espèces dotées de caractères nouveaux leur permettant d'aborder avec succès de nouveaux biotopes.

- inventer de nouvelles espèces totalement inconnues à ce jour, en favorisant systématiquement les mutations au hasard susceptibles de faire apparaître des mutants dotés de propriétés inattendues et possiblement très favorables. Dans les deux cas, c'est ce qu'a réalisé tout au long des millénaires le phénomène darwinien de la mutation-sélection naturelle. La biologie synthétique vise à obtenir ces résultats dans des délais infiniment plus courts et le cas échéant à plus grande échelle.

- redonner vie à des espèces disparues dont une partie de l'ADN a pu être récupérée. Le mammouth laineux de Sibérie suscite beaucoup d'espoir. On a parlé aussi de ressusciter le néanderthal. George Church lui-même, intentionnellement ou non, a créé ces derniers jours un malentendu. Certains média avait laissé entendre qu'il cherchait une homo sapiens aventureuse pour porter l'embryon d'un homo aussi proche que possible d'un néanderthalien. L'objectif n'est sans doute pas hors de portée, mais pour le moment il est loin d'être envisageable. Church n'avais jamais rien prétendu de tel.

- modifier enfin, de façon plus ou moins étendue, le génome reproductif de ce que l'on nomme encore l'espèce humaine. Ceci se fait déjà à petite échelle, lorsque par exemple les humains sélectionnent leurs conjoints à partir de certains traits génétiquement déterminés, ou lorsque l'examen pré-implantatoire des embryons vise à éliminer ceux dotés de gènes transmissibles porteurs de maladies héréditaires. La médecine, notamment aux Etats-Unis, recommande par ailleurs d' « humaniser » des gènes de rats ou souris afin de les rendre utilisables sans rejets dans des greffes thérapeutiques chez l'homme.

Mais a priori rien n'interdit d'aller plus loin et de construire artificiellement des parties de génomes ou génomes humains porteurs de caractères que pour des raisons diverses, leurs géniteurs, ou la société, voudraient voir se répandre. Ces modifications s'accumulant pourraient donner naissance à des individus très différents physiquement et neurologiquement des hommes actuels. On parlera de « trans-humains » ou « post-humains ». Rien n'obligera cependant à ce qu'ils soient conçus comme incapables de se reproduire avec les hommes actuels, ce qui marquerait en effet alors l'apparition d'une nouvelle espèce.

George Church fait preuve d'un certain courage en affichant publiquement que pour lui, de telles actions, visant à modifier et si possible améliorer l'espèce humaine, devront être entreprises dès qu'elles seront envisageables sans dommages collatéraux. Tout évidemment ne sera pas possible par la voie génétique. Il faudra aussi modifier l'environnement social et culturels des phénotypes et génotypes, compte tenu des contraintes de mieux en mieux étudiées aujourd'hui imposées par l'épigénétique, c'est-à-dire l'interaction des sujets avec leur milieu.

A cet égard le développement concomitant, dans le cadre de la révolution scientifique en cours, de la robotique autonome fera apparaître des systèmes artificiels plus ou moins proches de l'humain. Ceux-ci pourront entrer en symbiose avec les humains génétiquement modifés, au sein de systèmes que nous avons qualifié d'anthropotechniques. Robotique autonome et biologie synthétique apparaissent ainsi comme les deux volets qui, bien utilisées, pourraient assurer la survie de nos civilisations dans le monde de demain – y compris éventuellement sur d'autres planètes.


L'iGEM

Nous partageons pour notre part l'optimisme et le désir de découverte qui anime George Church. C'est une des raisons pour laquelle nous recommandons vivement la lecture et la discussion de son livre. Mais il est bien d'autres raisons de s'en inspirer, notamment parce qu'il fournit un grand nombre de précisions techniques que pourront utiliser les chercheurs et les entreprises visant de ce point de vue à développer les méthodes encore un peu artisanales de l'ingénierie génétique.

Dans ce domaine, comme nous l'indiquons dans un article présentant un projet européen visant à utiliser l'ADN de synthèse comme une mémoire de masse bien plus efficace que les composants électroniques (http://www.admiroutes.asso.fr/larevue/2013/133/adn.htm), le système scientifico-économique américain a fait merveille. Provenant notamment du MIT, dont George Church est issu, un véritable milieu écologique darwinien d'entreprises associant des chercheurs et des industriels a vu le jour. Les échecs sont nombreux, mais l'ensemble continue à prospérer.

Une véritable révolution culturelle se dessine ainsi, associant chercheurs, promoteurs de produits nouveaux, étudiants et même collégiens. Les Européens s'efforcent cependant d'entrer dans la bataille. Régulièrement, des publications annoncent des développements prometteurs. Si les Etats européens à la recherche de croissance s'y intéressaient vraiment, ils trouveraient là des occasions nouvelles pour créer des compétences et finalement de l'emploi en Europe même.

D'ores et déjà existent aux Etats-Unis depuis plusieurs années des concours inter-universitaires et inter-entreprises visant à sélectionner et financer des projets innovants dans le domaine de la biologie artificielle et synthétique. Le plus important et le plus couru est dit iGEM, pour Intercollegiate genetically engineered machines, inauguré en 2004 3). De nombreux établissements d'enseignement y présentent des projets. George Church signale que le gagnant d'un des dernier challenges était une équipe provenant de la Slovénie. La liste qu'il donne des nombreux sujets abordés, que l'on retrouvera à partir du site web de l'iGEN, est impressionnante. Même si tous les projets entrepris n'aboutissent pas, la démarche montre que cette discipline est dorénavant du domaine des réalités dont les décideurs devront tenir compte.

Il serait facile de terminer cette présentation trop courte d'un ouvrage remarquable par des considérations politico-philosophiques oiseuses sur les risques que courent nos sociétés en s'engageant dans les directions décrites. Ces risques ne sont pas plus grands que tous ceux découlant des progrès technologiques et scientifiques en général.

Disons qu'en matière de biologie synthétique comme en d'autres domaines sensibles, pour éviter les abus pouvant provenir d'entreprises capitalistes à la recherche de profits faciles, ou à l'opposé d'une monopolisation des recherches par des agences finançant la défense, en dehors de tout contrôle démocratique, la vigilance citoyenne s'impose, guidé par le sens de l'intérêt collectif. Mais celle-ci repose en premier lieu sur une bonne information, d'où l'intérêt de ce livre.

 

Notes
1) Nucléotides. Wikipedia http://fr.wikipedia.org/wiki/Nucl%C3%A9otide
2) Le virus ne possède qu'un seul type d'acide nucléique (ADN ou ARN). Il ne peut se répliquer qu'en pénétrant dans une cellule
3) iGen http://openwetware.org/wiki/IGEM

Voir aussi :
* Regenesis. Le premier livre encodé en ADN. Article du Time http://newsfeed.time.com/2012/08/20/the-first-book-to-be-encoded-in-dna/
* Franck Delaplace: un point de vue sur la biologie synthétique. Franck Delaplace est directeur adjoint du laboratoire IBISC (Université d'Evry / ENSIIE / Genopole). http://www.pourlascience.fr/ewb_pages/a/audio-franck-delaplace-la-biologie-synthetique-30829.php


Repost 0
13 juin 2011 1 13 /06 /juin /2011 11:03


Jean-Paul Baquiast 13/06/2011I

Le singe se déplaçant sur le tapis roulant à droite commande à distance la marche bipède du robot à gauche.

 

Imaginons une situation très simple. Vous prenez un café avec quelques collègues. Les tasses servies viennent d'être posées par le garçon sur la table. L'un d'entre vous n'attend pas les autres. Il prend une des tasses à la main et commence à boire. Entraîné par l'exemple, sans presque y penser, vous faites de même.

L'analyse des circuits nerveux impliqués dans ce comportement peut, avec les techniques de plus en plus perfectionnées développées par les neurosciences, mettre en évidence sans grandes difficultés les messages qui s'échangent à cette occasion entre les organes sensoriels, les organes moteurs et le cerveau. Les organes sensoriels sont ceux de la vision, de l'odorat et du toucher. Ils transmettent au cerveau les informations nécessaires à l'identification de la tasse de café et de son contenu. Les organes moteurs ou effecteurs relèvent de l'appareillage musculo-squelettique permettant de saisir la tasse et de boire le café. Ces deux catégories d'organes sont reliées par des fibres nerveuses montantes et descendantes qui permettent d'établir des boucles sensori-motrices se traduisant finalement par le fait de saisir la tasse, de boire le café et de reposer la tasse sur la soucoupe.

Les travaux sur les neurones miroirs (voir notre essai Le paradoxe du Sapiens) ont montré que dans des situations simples accomplies en groupe, où l'exemple collectif joue un grand rôle, comme dans notre exemple, les échanges nerveux se limitent à ce que l'on nomme globalement le cortex sensori-moteur en charge de la coordination entre les entrées sensorielles et les sorties motrices. Les couches associatives permettant l'activation de la conscience supérieure ne sont même pas mobilisées.Autrement dit, vous buvez votre café sans pris ce que dans le langage courant l'on nomme une décision volontaire. Il s'agit d'une décision dite « machinale ». Vous vous bornez à suivre l'exemple de vos collègues.

Mais ce point n'est pas important. Si pour une raison particulière vous vous trouviez seul, vous pourriez explicitement décider de prendre un café et faire les gestes correspondants, le tout plus ou moins en pleine conscience. A ce moment les aires cérébrales supérieures impliquées dans ce que l'on nomme l'attention et la conscience volontaire entreraient en jeu. Certes, les processus dont découle la prise de décision dite volontaire sont bien plus complexes. Ils impliquent en général tout le cerveau sinon tout l'organisme. Mais les échanges et fonctions qui en découlent, réalisées dans les couches inférieures du cortex sensori-moteur, ne seraient pas radicalement modifiées.

Supposez maintenant que vous ayez accepté de participer à une expérience vous permettant d'assurer le contrôle à distance d'un robot doté des organes sensoriels et des organes effecteurs lui permettant de se comporter au café d'une façon voisine de la vôtre. La première phase d'une telle expérience consisterait à se procurer un robot capable de s'asseoir à une table de café, de saisir une tasse et de boire (ou faire semblant de boire) son contenu. Ce robot devrait être très perfectionné. Les actes apparemment simples attendus de lui exigeraient de lui une grande versatilité. Aujourd'hui cependant la robotique permet sans difficulté de demander de tels comportements à des robots.

Plus compliqués mais néanmoins faisables sont les actions typiquement humanoïdes telles que la marche bipède. L'architecture des robots usuels n'y est pas adaptée. Pourtant, de nombreux robots sont désormais capables de marcher sur deux pieds et de se comporter dans toute une série d'activités avec une fluidité quasi humaine.

Beaucoup plus difficile sera la seconde phase de l'expérience: donner à votre cerveau la capacité de commander les activités motrices et de recevoir en retour les messages sensoriels correspondant à la manipulation d'une tasse de café et de son contenu. On pourrait évidemment faire en sorte que ceci soit fait par l'intermédiaire d'un clavier relié au robot. Vous pourriez le commander manuellement en fonction de ce que vos propres yeux vous permettraient d'observer relativement au comportement du robot.

Mais on conçoit bien que l'expérience ne serait vraiment intéressante que si vous pouviez remplacer vos propres organes sensoriels et moteurs par ceux du robot. Il faudrait alors que les flux de données montantes et descendantes découlant de l'interaction du robot avec la tasse de café viennent alimenter directement votre cerveau, court-court-circuitant votre appareillage sensoriel.

Ceci pourrait se faire à deux niveaux différents. La procédure la plus simple consisterait à identifier les terminaisons de vos circuits sensoriels et moteurs pour les alimenter directement en données fournies par le robot ou pour leur permettre de produire des données utilisables par le robot. Les données en question devraient être convenablement décodées puis recodées pour être utilisables à la fois par le robot et par votre système nerveux. Ceci se fait couramment aujourd'hui, par exemple dans les prothèses sensorielles destinées à remplacer un organe des sens abimé. Le nerf auditif ou optique est directement activé par la prothèse.

Une procédure plus complexe mais également de plus en plus pratiquée aujourd'hui consisterait à introduire directement dans les aires corticales responsables de la commande motrice ou de la réception sensorielle de petits capteurs servant d'interface entre la prothèse et le cerveau. C'est la fonction que remplit par exemple l'opération dite des implants cochléaires qui permet d'activer directement, en l'absence du nerf auditif détruit, les aires spécialisées du cerveau capables de recevoir et traiter les données sonores provenant d'un capteur artificiel.

Il ne faut pas se dissimuler cependant que fournir au cerveau des données provenant immédiatement des sens ne suffit pas à la reconstruction des représentations complexes du monde qu'élabore en permanence celui-ci. Ce sont généralement des milliers de neurones, répartis dans des dizaines d'aires différentes, qui coopèrent pour une telle construction. Il est tout aussi difficile d'identifier les aires réparties dont la coopération aboutit à l'élaboration des ordres moteurs. Rien cependant en théorie ne semble interdire d'envisager de telles solutions.

Un autre problème, de nature plus pratique se pose. Commet pourrait-on envisager l'implantation dans le cerveau des nombreux capteurs artificiels nécessaires pour l'interfaçage avec les organes du robot? A terme cependant, il n'est pas exclu que des méthodes moins invasives soient proposées, par l'intermédiaire de casques externes que les sujets humains participant aux expériences accepteraient de porter.

 

La plasticité cérébrale


On voit donc qu'avec un peu de temps et quelques moyens de recherche, il deviendra possible de mettre directement en relation votre cerveau avec un robot capable de remplacer vos organes sensoriels et moteurs, non seulement pour prendre une tasse de café, mais pour accomplir éventuellement, à l'autre bout du monde, des tâches qui seraient hors de portée de votre appareillage corporel.

De plus, point essenteil, contrairement à ce que laissait supposer l'analyse que nous venons de faire au début de cet article, il ne serait pas nécessaire pour cela d'imposer à des chercheurs en neurosciences l'identification de détail des aires neuronales concernées, non plus qu'à des programmeurs la traduction en langage-machine des données émanant du cerveau. Des expériences menées depuis quelques années sur des primates, relatées sur ce site et sur de nombreux autres, montre que la plasticité du cerveau est telle que celui-ci accepte avec un peu d'entrainement de considérer les prothèses robotiques comme des organes du corps proprement dit.

En pratique, il suffit que le sujet engage mentalement les opérations traduites dans le langage courant par le terme de prise de décision volontaire, pour que les ordres correspondants soient transmis au robot et que les retours d'expérience en provenant soient traitées comme si elles émanaient des organes des sens. On poura dire à ce moment d'une façon imagée que le robot est contrôlé par la pensée. Nous sommes donc là directement immergé dans la réalisation de ce que nous nommons sur ce site des systèmes-bioanthropotechniques.

Le Pr brésilien Miguel Nicolelis, fondateur du Center for Neuroengineering à l'université de Duke, Caroline du Nord, s'est spécialisé dans de telles recherches (voir références ci-dessous). Elles sont dorénavant étudiées et poursuivies dans le monde entier, en collaboration avec les firmes les plus avancées en matière de réalisations de robots évolutionnaires et de prothèses artificielles. Les applications les plus intéressantes au point de vue social concernent l'aide aux personnes paralysées ayant conservé une activité cérébrale normale. Elles pourront faire appel de cette façon à des appareillages susceptibles d'être commandés directement par la pensée. Ceci s'inscrit dans les perspectives intéressant la réalisation d' « hommes augmentés » intéressant particulièrement le mouvement transhumaniste.

Par ailleurs, dans le domaine plus immédiat des applications robotiques en milieu difficile d'accès, l'utilisation de telles interfaces entre des robots explorateurs et des humains trouvera un nombre très important d'applications. On citera notamment l'exploration des planètes. L'intérêt potentiel serait si grand que nous ne pouvons que regretter, une nouvelle fois, le peu de moyens mis par les responsables de la recherche européenne dans de tels investissements.

Miguel Nicolelis vient de présenter ces travaux dans un essai nommé « Beyond Boundaries » Times Books.

 

Références
* NicolelisLab
* Article du Newscientist
* Article du Blog Think artificial

Repost 0
5 février 2006 7 05 /02 /février /2006 19:51

Le Web est-il un cerveau global?
Jean Paul Baquiast
3 février 2006

 La question de savoir si le Web n'est pas en train de devenir un super-cerveau, générant une super-intelligence, est posée (et résolue de façon globalement affirmative) par un article très stimulant de Kevin Kelly, publié par le réseau Kurzweil AI.
(voir
http://www.kurzweilai.net/meme/frame.html?main=/articles/art0629.html
ainsi que sur Wired http://www.wired.com/wired/archive/13.08/tech.html
Nous nous proposons de la discuter ici. Notre réponse sera, comme l'indique le titre, plus prudente.

The planet-sized "Web" computer is already more complex than a human brain and has surpassed the 20-petahertz threshold for potential intelligence as calculated by Ray Kurzweil. In 10 years, it will be ubiquitous. So will superintelligence emerge on the Web, not a supercomputer?

Quel est l'argument de Kevin Kelly et de ceux qui raisonnent comme lui?

Le Web est devenu un superorganisme d'une nature et d'une taille encore jamais vues sur Terre à ce jour, du moins dans le domaine des systèmes créés par l'homme. D'ores et déjà il comprend plus de 1 milliard de correspondants potentiels, c'est-à-dire de machines capables d'émettre et de recevoir des messages : PC, téléphones portables, objets(1). Ceux-ci ont généré près de 50 milliards de pages. Dans 10 ans il connectera des milliards voire des dizaines de milliards de terminaux de toutes sortes et aura créé un nombre de pages et messages pouvant atteindre le milliard de milliard.

Derrière ces machines il y aura des utilisateurs, humains et automates. Dans une vision encore courante du Web, la grande majorité de ces utilisateurs s'informent, c'est-à-dire consomment passivement des informations créées par une petite minorité d'entre eux. Nous sommes en face d'un système à flux descendant, qui n'est pas très différent, hors sa taille, du système de création et de diffusion des contenus d'information caractérisant les médias traditionnels, y compris la presse et la littérature depuis des siècles. Mais dans la vision qui tend aujourd'hui à prévaloir, les utilisateurs produisent et diffusent des contenus en même temps qu'ils en consomment. Ils les produisent soit en retraitant directement des informations qu'ils ont prélevées sur le web (je lis un texte en ligne et cela me suggère des réactions, c'est-à-dire des idées originales que j'édite) soit même en créant des contenus de leur propre chef (je crée un site où je publie par exemple l'histoire de ma vie…). Autrement dit, les utilisateurs, sans cesser d'être consommateurs, deviennent aussi auteurs, en créant de l'information que d'autres consommeront. De ce fait, ils constituent un nouveau pouvoir, face aux anciens détenteurs de l'information et des savoirs, qui tentent mais en vain d'en conserver le monopole. On retrouve toutes ces questions dans les débats actuels sur les droits d'accès à la culture numérique(2).
Derrière ces constatations qui tendent à devenir banales, Kevin Kelly rappellent ce que nous devrions savoir. D'une part, toute démarche, de lecture ou d'écriture sur le Web, est mémorisée quelque part, sans limite de temps, sauf quand des serveurs disparaissent (et encore. Leurs données ont généralement été reprises ailleurs). Ceci signifie que se créent à chaque fois des liens nouveaux entre données jusqu'ici non reliées. Si je vais lire le contenu d'un site, je crée un lien entre mon adresse IP et celle de ce contenu. Si je fais davantage, en publiant un lien hypertexte sur ce site, je « durcis » le lien et le fait connaître, potentiellement, au monde entier. Le Web devient donc une gigantesque mémoire, qui, 24h sur 24, n'arrête jamais de travailler et de s'étendre. Nous avons vu que parmi ce que nous avons appelé des utilisateurs, se trouvent de plus en plus d'automates et d'objets. Je suis « tracé » par différents objets qui mémorisent les liens, physiques ou virtuels, que j'établis sans cesse dans ma vie sociale : ainsi je passe tel péage, je vais chez tel commerçant, etc. Ceci inquiète beaucoup de gens mais n'est qu'un aspect particulier de l'immense réseau de contenus mémorisés dans lesquels je m'inscris dès que je fais quelque chose.

On considère généralement, non sans raison et comme nous l'avons rappelé en introduction, que le Web est un immense réseau interconnectant physiquement (même si toutes les connections ne sont pas à tous moments activées) des centaines de millions de machines. Mais si l'on prend en considérations tous les liens qu'il a mémorisés entre pages et contenus de pages, on atteint les milliards de milliards d'objets virtuels. Nous employons le terme d'objets virtuels car ceux-ci sont très proches de ce que Jean-Pierre Changeux avait appelé des « objets mentaux » dans son livre fondateur, l'Homme neuronal. Les objets mentaux de J.P. Changeux sont contenus dans notre cerveau et matérialisés par les synapses plus ou moins durables s'étant établies entre neurones –notamment dans le cortex associatif - au long de notre vie. Nous allons revenir ci-dessous sur cette comparaison entre le Web et le cerveau, car c'est elle qui nous intéresse ici.

Ces données ne s'accumulent pas en désordre dans la mémoire collective du Web. Elles se distribuent spontanément ou sont volontairement classées par origines géographiques, linguistiques, fonctions assurées, etc. Mais d'une façon générale, une hiérarchie particulière apparaît, découlant de la fréquence de consultation. Il s'agit d'un système de sélection quasi-darwinien. Les sites et données les plus consultées sont présentés en tête des listes des moteurs, ce qui accroît la fréquence de leur consultation au détriment des données isolées. Cependant le système est chaotique. On constate que des données très consultées peuvent ne plus l'être et que des sources isolées peuvent brutalement s'étendre et conquérir momentanément une partie de la globosphère ou du Web (voir ci-dessous : le rôle des mèmes sur le web).

Comment qualifier l'assemblée ou collection des objets virtuels (ou synapses numériques) que nous venons d'évoquer, faits de liens mémorisés sur le Web ? On peut dire qu'ils représentent un modèle dynamique d'un monde plus général, celui où s'exerce l'activité des humains et de leurs machines. Ce modèle dynamique est un monde physique à lui seul, fait de ces réalités (physiques) que sont les informations et liens entre informations figurant dans les serveurs et dans les réseaux de connexions entre serveurs. Nous pouvons le qualifier, afin de le distinguer d'autres types de mondes créés par des interconnexions entre objets naturels (par exemple le monde des bactéries, souvent lui-même qualifié de "web bactérien") d'un monde numérique. Le monde numérique se construit sans cesse, du fait de l'interaction permanente des humains et de leurs machines avec un monde biologique et physique plus général. Nous nommerons ce dernier l'Univers, afin de ne pas le confondre avec le monde numérique qui le représente.

Le monde numérique est-il un reflet passif de l'Univers, comme peut l'être l'image d'un animal dans un miroir ? Non pas et pour plusieurs raisons. La première est que, dès qu'un utilisateur du Web, homme ou machine, introduit un nouveau lien, ce lien sera perçu et pris en compte par un autre utilisateur, qui modifiera en conséquence, d'une façon non prévisible mais indéniable, son propre comportement, c'est-à-dire son action sur l'Univers. C'est assez évident. Si je lis sur un site web que je dois réduire mes émissions de CO2, je m'efforcerai de le faire et j'agirai ainsi effectivement sur l'univers physique et biologique. Ceci tient au fait que les utilisateurs ne sont pas inactifs mais constituent des « agents pro-actifs », selon l'expression de l'Intelligence Artificielle. Ile le sont d'autant plus qu'ils sont dotés en propre, grâce à la possession d'un cerveau biologique et de contenus culturels accessibles à ces derniers, d'une aptitude à la création autonome (pour ne pas parler de conscience) que n'ont pas forcément les machines – du moins en leur état actuel.

Mais la proactivité des agents humains n'est pas seule créatrice de nouveaux liens ou objets virtuels. Lorsque les liens génèrent eux-mêmes, par leurs interactions, de nouveaux contenus et que ces contenus arrivent à influencer des utilisateurs, hommes ou machines, ces nouveaux objets modifieront de leurs propre chef, par émergence, selon le terme consacré, le comportement des agents. Ils modifieront par conséquent les effets qu'exercent ces comportements sur la marche de l'Univers. Mais est-ce possible, sans interventions humaines ? Oui, du fait de l'activité de tous les automates qui dorénavant opèrent sur les données du Web afin de les recenser, les analyser, les résumer et les transformer. Si un moteur de recherche du type de celui proposé un temps par Microsoft rassemblait de lui-même toutes les traces que j'ai laissées ma vie durant sur le Web, dressait le portrait ou plutôt le profil de moi qui en découle, et communiquait ce profil - soit à moi soit à d'autres – il modifierait inévitablement les comportements de ceux ayant connaissance de ce profil et donc la façon dont ceux-ci interagiraient ultérieurement avec l'univers extérieur. Pour prendre un exemple sympathique, si un tel profil établi automatiquement montrait que je suis un esprit très créatif, je pourrais postuler un poste dans une entreprise de création où j'inventerais peut-être une machine géniale, capable de modifier durablement l'univers.

Plus généralement, le réseau des serveurs et pages interconnectés générera inévitablement ce que la mémétique désigne du terme de mèmes(3). Les mèmes sont des idées ou images qui se développent et se reproduisent spontanément, comme des virus, sur le mode de la sélection darwinienne, au sein des réseaux de communications animaux et humains. Dans une société classique, leur importance est fonction de la densité des échanges entre individus et groupes. Dans un système profondément câblé et interactif, elle a toutes les chances d'augmenter considérablement. C'est ainsi que les effets de mode, concernant des informations vraies ou fausses, sont particulièrement rapides à naître sur le Web et parfois à y prendre des dimensions mondiales.

Nous voyons donc se mettre en place une Méga-machine, incluant et transcendant l'activité des humains et de leurs petites machines. Cette Machine comptera désormais de plus en plus parmi les agents physiques et biologiques influant sur l'évolution de l'Univers, au moins à l'échelle de la Terre et de son environnement immédiat. Il faut ajouter un point très important : la Méga-machine n'est ni descriptible en totalité ni, évidemment prédictible, par aucun homme ou système que ce soit. Il s'agit donc pour reprendre le terme de Victor Hugo, d'une « force qui va » mais nul ne sait où elle va. Le seul argument qui rassurera les esprits craintifs est qu'elle dépend totalement de la technologie. Qu'une guerre nucléaire ou un cataclysme détruise les réseaux et les serveurs, la Machine s'effondrera…mais probablement avec elle toute société humaine un tant soit peu évoluée. Resteront les fanatiques religieux des premiers âges.

On objectera que la Machine ainsi décrite n'est qu'une extrapolation des systèmes de communication existant dans les sociétés humaines traditionnelles. Dans ces sociétés, même lorsque les échanges sont seulement langagiers, sans écrits, chaque individu est plus ou moins récepteur et émetteur de données. On connaît le rôle des « commères » dans les villages ruraux. Des effets de mode ou d'émergence imprévus peuvent aussi s'y faire sentir. La seule différence d'avec les sociétés modernes est la densité des informations reçues ou échangées par habitant et par unité de temps, ainsi que la faible étendue des connexions. Celles-ci ne dépassent que rarement les limites de la province et sont enfermées dans des isolats linguistiques et culturels entre lesquels n'existent pas d'outils de traduction. C'est il est vrai aussi un peu le cas sur le Web. Tout le monde n'y communique pas avec tout le monde et tout le monde n'a pas le temps de communiquer autant qu'il le voudrait. Mais au moins en ce qui concerne les mises en corrélation automatiques et l'ampleur des mémoires rendues disponibles, les échelles de grandeur sont sans comparaison. On obtient donc avec le Web de très grandes densités de créations et d'échanges, qui produisent probablement des changements qualitatifs et pas seulement quantitatifs, par lesquels les « infosphères » modernes se distinguent des infosphères primitives.

Ceci admis, le Web constitue-t-il véritablement un super-cerveau, créateur d'une super-intelligence ? Pour répondre à cette question capitale, il faut s'entendre sur ce que l'on entend par cerveau et intelligence, en prenant pour référence ce que nous connaissons de l'un et de l'autre dans l'état actuel des connaissances scientifiques.

Le cerveau et son intelligence

Il existe d'innombrables études relevant de la discipline des neurosciences, aujourd'hui, qui tentent de décrire l'organisation du cerveau et la façon dont celui-ci, chez les animaux supérieurs et l'homme, génère de l'intelligence, voire génère ce que l'on appelle encore, à tort ou à raison, des faits de conscience. Les travaux sur les robots autonomes abordent le problème à partir de bases différentes, les systèmes et agents informatiques, mais ils aboutissent à des conclusions de plus en plus proches de celles des neurosciences. Nous n'allons pas dans ce court article reprendre tout ceci, mais seulement résumer les caractères généralement attribués au cerveau et à ses états, afin de voir si nous les retrouvons dans la Machine du web telle que nous venons de la décrire. Distinguons en quoi les deux types d'organisations se ressemblent et en quoi elles différent.

Première ressemblance.

Le cerveau n'a pas de capacités cognitives, que ce soit en neurologie ou en robotique, s'il n'est pas relié à un corps qui le distingue de l'univers extérieur et avec lequel il interfère en permanence grâce à des organes sensoriels (ou senseurs) et des organes moteurs (ou effecteurs). Ce sont les données reçues par ces organes qui constituent les objets mentaux synaptiques contenus dans le cerveau. Ce sont également celles émises par eux qui modifient en retour l'univers dans lequel se meut et survit, non seulement le cerveau mais le corps tout entier. Or la Machine du web a-t-elle un corps et est-elle dotée de senseurs et d'effecteurs ? A priori, sans entrer dans les détails, nous pouvons répondre par l'affirmative. Son corps et ses organes sont faits des innombrables utilisateurs du web, humains ou machines. C'est un corps très réparti, mais il se distingue de l'univers extérieur, y compris des humains non connectés, par divers traits physiques. De plus et surtout, il dispose des organes sensoriels et effecteurs des humains connectés et de leurs propres machines. La structure ainsi formée n'est pas tout à fait comparable à l'ensemble des neurones constituant le cerveau. Elle ressemble plutôt à ce que l'on appelle un essaim ou une meute (swarm). Autrement dit, il s'agit plutôt d'un super-organisme que d'un organisme mais les différences, à notre niveau d'approche, ne sont pas significatives.

Le fait que les humains connectés au Web disposent de capacités propres de représentation, grâce à leurs cerveaux et leurs cultures individuelles, ne change pas grand-chose dans le schéma d'ensemble où ils sont assimilés à des neurones cérébraux plus ou moins passifs participant au fonctionnement du Web. On peut en effet considérer que si ces cerveaux et intelligences individuelles enrichissent les capacités de recueil et de production d'information des terminaux du Web, à grande échelle, leur influence sur celui-ci est négligeable. Elle reste soumise aux lois statistiques gouvernant la dynamique d'ensemble du système. Ainsi la production des intelligences individuelles à haut coefficient compense la sous-production des intelligences plus modestes. Dans le cerveau d'ailleurs, comme sur le Web, tous les neurones ne sont pas également passifs. Certains neurologues considèrent qu'un certain nombre d'entre eux ne sont pas de simples machines à transmettre ou à traiter de façon linéaire l'information qui transite par eux. Disposant de millions de connexions synaptiques, ils se comportent probablement, dans certaines zones cérébrales tout au moins, comme des agents pro-actifs plus ou moins capables de créativité intelligente. Un neurone, ses dendrites et ses synapses doivent pouvoir, à lui seul et dans certain cas, computer c'est-à-dire créer de l'information, par exemple sur le mode des réseaux de neurones formels. Ils sont donc au moins aussi "intelligents" que certains hommes.

Deuxième ressemblance.

Le cerveau joue pour le corps le rôle d'une immense base de données mémorisant les expériences vécues par le corps. Il s'agit des associations ou objets mentaux précédemment évoquées. Celles-ci sont réparties à l'intérieur des zones cérébrales héritées génétiquement où elles servent de support aux activités réflexes ou aux mémoires de long terme. D'autres sont stockées dans des mémoires temporaires et permettent la mémoire immédiate
(4). Certains neurologues considèrent que le cerveau avec son immense potentiel synaptique, est tout à fait capable de conserver, sinon d'utiliser efficacement, l'ensembles des informations reçues ou produites par un individu tout au long de sa vie. Nous pouvons donc considérer que le cerveau sur ce plan, n'est pas très différent du Web global qui conserve et conservera, sauf destructions occasionnelles, l'ensemble des données accumulées depuis sa création.

Principale différence.

Par contre, et c'est la différence essentielle, le cerveau est un système fortement interconnecté et fortement hiérarchique. Cette hiérarchisation dépasse de beaucoup celle que nous avons évoquée précédemment concernant la sélection des données qui apparaissent en tête de liste dans les moteurs de recherche. Elle est absolument systémique. Ceci apparaît particulièrement bien dans l'architecture anatomique et fonctionnelle du cerveau révélée par l'imagerie cérébrale moderne. On y voit l'organisation des six couches composant le cortex associatif. C'est la partie du cerveau dite aussi matière grise où l'on situe généralement le siège de l'intelligence et des états de conscience.

Les expériences accumulées par le cerveau reflètent la structure du monde tel qu'il est apparu au sujet tout au long de sa vie, sous la forme de séquences d'événements et de relations entre ces séquences. A partir de ces contenus de mémoire, le cerveau fait à tout instant des prédictions qui sont confrontées aux nouvelles expériences et mémorisées à leur tour après modifications éventuelles. C'est ce système de mémoire-prédiction qui constituerait l'essentiel de l'intelligence humaine, en organisant les perceptions, la créativité et même la conscience. Il est évident que la Méga-machine du web, aujourd'hui encore –sauf peut-être sous forme de traces ou d'amorces locales sans conséquences pratiques globales- est incapable d'une telle fonction qui permettrait de la prétendre vraiment intelligente(5).

Le cortex associatif ou néocortex est constitué de six couches empilées de neurones aux fonctions différentes, sur une épaisseur qui ne dépasse pas 2 mm. mais qui recouvre, chez l'homme, l'ensemble de la surface de l'encéphale. Grâce à sa structure hiérarchique, le néocortex reçoit en parallèle les messages envoyés par les organes sensoriels et par les couches plus profondes du cerveau. Il les organise sous forme d'objets mentaux, pour reprendre notre terme, ou de «patterns». Par pattern, il faut entendre des ensembles d'informations présentant une cohérence au plan géographique cérébral et au plan temporel (séquences chronologiques). Ces patterns correspondent, après diverses opérations destinées à éliminer l'accessoire pour garder le permanent, aux représentations que nous nous faisons du monde.

Le point essentiel, souvent négligé par les modèles courants du cerveau, est que le néocortex ne fonctionne pas seulement du bas vers le haut - le bas correspondant à la couche recevant les informations primaires et le haut mémorisant des informations de plus en plus globalisées et élaborées. Les patterns se forment dans chacune des six couches de neurones et sont restitués à la couche inférieure en même temps qu'ils sont adressés à la couche supérieure. Ce rétro-feedback prend la forme d'une prédiction renvoyée à la couche inférieure et instantanément comparée et modifiée si besoin est compte tenu des nouvelles informations provenant de l'extérieur. Dans ce modèle d'architecture, on pourrait dire que chaque couche de neurones du néocortex se comporte comme un néocortex à elle seule, à la différence qu'intégrée dans un système hiérarchique, ce qu'elle reçoit et émet influence en parallèle ce que reçoivent et émettent les autres couches. C'est cette architecture qui permet notamment de ne pas confondre le cerveau avec un ordinateur classique ni même avec un système complexe comme le Web, lequel n'est pas hiérarchisé globalement. Ainsi, contrairement à un ordinateur qui produit une information en sortie à chaque entrée d'information venant de l'extérieur, le cerveau fait, à diverses échelles de complexité, des prédictions basées sur les expériences et les séquences préalablement enregistrées. Ces prédictions provoquent des sorties motrices qui modifient le monde environnant, l'Univers, et provoquent en retour le recueil de nouvelles informations au niveau des entrées sensorielles. Les organes sensoriels et moteurs ne fonctionnent pas isolément. Ils s'auto-influencent à tous les niveaux de complexité du cortex, du fait des nombreuses liaisons synaptiques qui les relient. Là encore, ce n'est pas le cas des usagers du Web qui demeurent généralement isolés, c'est-à-dire ignorants de ce que font les autres, même si parfois des effets locaux de contamination les mettent en phase.

Deux autres caractères différencient le néocortex d'un réseau comme le Web global. L'une est l'organisation en colonnes verticales de quelques millimètres de diamètre qui mettent les neurones de chaque couche, à l'intérieur de ces colonnes, en communication avec ceux situés au-dessus et au dessous. Ces colonnes (ou groupes de colonnes, car rien n'est unique dans le cerveau) sont en principe dédiées, du fait d'une architecture acquise par l'évolution et commandée à la naissance par les gènes de structure, à des types spécifiques de messages, par exemple transmettre via le cortex visuel, l'information relative à la perception d'une ligne verticale. Mais si nécessaire, en cas d'accident, elles peuvent se remplacer l'une l'autre. Le cerveau n'est donc pas au départ un amas indifférencié de neurones, un «tas de nouilles»(6).

Le deuxième caractère est opposé au précédent, ou plutôt complémentaire de celui-ci. Dans toutes les couches, avec une densité de plus en plus grande lorsqu'on s'élève dans la hiérarchie de ces couches, il existe des fibres de liaison qui, grâce aux synapses, permettent d'associer les mémoires et donc les prédictions formulées à chaque niveau hiérarchique. Ce sont ces fibres horizontales qui ont donné d'ailleurs au cortex son qualificatif d'associatif. L'existence de liaisons horizontales était connue depuis longtemps, mais on montre aujourd'hui qu'elles jouent un rôle permanent dans la modulation tant des informations émises en sortie que des informations reçues en entrée, ceci quelle que soit la complexité des patterns et des séquences transitant au sein des couches et à travers elles.

Un autre point important, qui permet au cerveau, malgré la lenteur de ses composants primaires, de réagir vite et de façon régulière, est l'invariance des patterns stockés à chaque niveau du cortex. Il s'agit d'une invariance relative, puisque les séquences mémorisées peuvent être modifiées si elles sont contredites par de nouvelles expériences. Mais lorsque ce n'est pas le cas, elles peuvent être immédiatement mobilisées pour produire des prédictions et entraîner des actions s'appuyant sur elles. Ceci ne constitue pas une observation nouvelle. On sait depuis longtemps que le cerveau commande de nombreux comportements sur le mode automatique, par exemple dans le cas de la conduite automobile, l'appel à des solutions plus complexes ne survenant qu'en cas de difficulté inattendue. Cette invariance des patterns ne doit pas être confondue, évidemment, avec les boucles sensori-motrices automatiques caractérisant l'ensemble de la vie organique et ne faisant pas intervenir le cortex. Ceci étant, ce phénomène de l'invariance des patterns au niveau du néocortex est absolument général. C'est pourquoi il caractérise le cortex comme un ensemble de mémoires prédictives. Dans chacune des couches et des colonnes, le néocortex stocke des séquences de patterns. Il s'agit d'un stockage auto-associatif, tel élément de séquence pouvant suffire à faire apparaître la séquence entière ou des séquences différentes dans lesquelles il figure. Là encore, c'est l'extrême connectivité synaptique du cerveau qui rend possible ces associations. Sur le Web, il existe une certaine invariance des données. Mais elle est très fragile et n'est pas indispensable au fonctionnement d'ensemble. Au contraire. Plus les données "mutent", plus la créativité globale du système semble en profiter. L'invariance apparaît a posteriori de façon statistique, certaines données se révélant plus consultées que d'autres et orientant la production de nouvelles données. Mais ceci de façon généralement peu permanente. Les données les plus invariantes à long terme sont les données qui ne sont plus consultées. Elles n'ont donc pas beaucoup d'influence fonctionnelle.

Enfin, dans le cerveau, les patterns sont stockés selon des architectures locales elles-mêmes invariantes et hiérarchiques. C'est ce caractère qui assure la permanence bien connue de la mémoire et le fait que les représentations primaires que nous nous donnons du monde s'articulent dans notre esprit en représentations de plus en plus complexes, débouchant dans certains cas sur des faits de conscience. Plus on s'élève dans la hiérarchie, plus les détails, importants dans les niveaux inférieurs, s'atténuent au profit des lignes générales. On voit ainsi apparaître, au sommet des couches néocorticales, des représentations correspondant à ce que l'on appellera en linguistique des concepts ou des noms. Les concepts sont seulement des abstractions épurées des détails. Ils n'ont pas besoin d'être nommés par le langage social pour exister et servir à orienter le comportement intelligent supérieur. Au plus haut de la pyramide, c'est le concept de « moi » qui synthétisera l'ensemble des expériences passées et actuelles enregistrées par le sujet. Mais de nouveau, on rappellera que la permanence et la hiérarchie ne sont que relatives. Elles peuvent laisser place à des variantes de représentations ou de hiérarchies si de nouvelles expériences imposent ces changements et si la plasticité d'ensemble du système permet d'en tenir compte pour assurer la réadaptation du système à un milieu profondément changé. Inutile de dire que jamais à ce jour on n'a surpris l'existence sur le Web d'une conscience de soi. Ou bien elle n'existe pas (et on ne voit pas comment elle pourrait se former, dans l'état actuel de l'interactivité des réseaux) ou bien il s'agit d'une forme d'intelligence ou de conscience pré-humaine, sinon extra-terrestre, que l'on pourrait retrouver dans les webs biologiques évoqués au début de cet article

Conclusion

Il est donc inutile de faire de longs développements pour montrer que l'intelligence globale n'existe pas encore dans le Web, pour la raison principale que celui-ci n'est pas organisé comme un cerveau biologique. Le Web se borne, et c'est déjà considérable, à enrichir (augmenter) les intelligences individuelles et collectives de ceux qui l'utilisent. Cela leur confère un avantage compétitif considérable par rapport au reste de l'humanité.

Ce sera sans doute l'objectif des futurs moteurs de recherche et d'édition que permettre l'émergence de patterns de représentation de plus en plus globaux, pouvant correspondre à l'apparition sur le Web d'une conscience voire d'une conscience volontaire globale. Sera-ce possible ? Sans doute. Qui en bénéficiera ? Les utilisateurs de la périphérie ? Des pouvoirs politiques centraux visant à réguler ou mobiliser les données du Web à des fins impériales ou impérialistes ? Bien pire ou bien mieux : ne s'agira-t-il pas d'émergences informationnelles et computationnelles qui s'imposeront d'elles-mêmes aux hommes connectés au Web et qui prendront le pouvoir sur eux, comme le prédisent certains auteurs de science-fiction ?

Nul ne peut pensons nous répondre à ces questions pour le moment. D'où la nécessité de rester vigilant, en ne sous-estimant pas mais en ne surestimant pas davantage les capacités d'évolution dynamique du réseau des réseaux.

Notes
(1) L'Internet des objets. On donne désormais ce nom aux objets capables d'émettre des messages recueillis et mémorisés par le web, par exemple la puce antivol incorporée à une automobile qui signale en permanence la position du véhicule, indépendamment de la volonté du conducteur. Voir le rapport de l'Union Internationale des télécommunications http://www.itu.int/osg/spu/publications/internetofthings/
(2) Cette thèse est développée dans l'ouvrage récent "La révolte du proNetariat", de Joël de Rosnay et Carlo Revelli. Voir une interview de l'auteur et les liens dans http://nextmodernitylibrary.blogspirit.com/archive/2006/01/18/la-revolte-du-pronetariat.html
Joël de Rosnay a appliqué ces idées en participant à la création d'un journal collectif sur le mode des multiblogs : AgoraVox http://www.agoravox.fr/. Jusqu'à présent, l'entreprise se révèle un succès, c'est-à-dire qu'elle offre une source très diversifiée d'informations et d'opinions ouverte à tous.
(3)
Voir Comment les systèmes pondent de Pascal Jouxtel, Le Pommier 2005 : http://www.automatesintelligents.com/biblionet/2006/jan/csp.html
(4) Voir Les Dossiers de la Recherche, février-avril 2006, La Mémoire.
(5)
Voir Jeff Hawkins, Intelligence, et notre présentation dans cette revue, dont nous avons importé ici quelques paragraphes
http://www.automatesintelligents.com/biblionet/2005/sept/hawkins.html
(6) Même si le web mondial n'est pas le « tas de nouilles » ou la poubelle généralement dénoncée par ses détracteurs, l'organisation voulue ou automatique (auto-organisation) des données qu'il mémorise n'atteint pas le niveau de complexité décrit ici – lequel se retrouve, rappelons le, dans des cerveaux bien plus « primitifs » que ceux de l'homme.

Repost 0

Articles Récents

Liens