Overblog Suivre ce blog
Administration Créer mon blog

Texte libre


Pourquoi ce blog ?

Cet ensemble de textes a été conçu à la demande de lecteurs de la revue en ligne Automates-Intelligents souhaitant disposer de quelques repères pour mieux appréhender le domaine de ce que l’on nomme de plus en plus souvent les "sciences de la complexité"... lire la suite

Recherche

14 octobre 2013 1 14 /10 /octobre /2013 09:35


Jean-Paul Baquiast 13/10/2013

texte en discussion

Mme Mugur Schächter vient de publier sur arxiv une étude approfondie, complétant et, pourrait-on dire, finalisant l'approche originale de la physique qu'elle avait proposée sous le concept d' « infra-mécanique quantique ». Nous avons édité sur notre site une version qu'elle nous avait confiée de l'ouvrage sous ce titre.

Cette nouvelle étude, que l'on trouve sous les références ci-dessous, est trop complexe pour être présenté à nos lecteurs sans l'accompagner de quelques indications que nous espérons pouvoir obtenir de l'auteure. Dans l'immédiat, il nous a inspiré une réflexion fort éloigné du texte lui-même, Elle rejoint des articles déjà proposés sur ce site, relativement aux rapprochements nécessaires entre la physique « ordinaire » et la physique quantique. On trouvera ici un nouveau bref article, bien trop rapide compte tenu de la gravité du sujet. Nous espérerons qu'il pourra cependant provoquer quelques réflexions.

http://arxiv.org/ftp/arxiv/papers/1310/1310.1728.pdf
9 Oct 2013
Mioara Mugur Schächter PRINCIPES D’UNE 2ÈME MÉCANIQUE QUANTIQUE
Construction des fondements d’une formulation Hilbert-Dirac intelligible

Dès les origines de la mécanique quantique, les physiciens et les philosophes formés à l'école de la science traditionnelle se sont efforcés de démontrer le non-sens d'une approche faisant valoir des propriétés de la matière telles que l'indétermination, la superposition d'états, l'intrication jugées par eux incompatibles avec le réalisme et le déterminisme indispensables selon eux à la compréhension du monde. Ils ont cherché, notamment avec l'hypothèse des variables cachées, à faire valoir que sous l'apparent indéterminisme constaté lors des observations du monde quantique, des lois restant à découvrir pouvaient expliquer les « bizarreries », selon le terme d'Einstein, sur lesquelles reposaient la nouvelle physique.

Toutes ces tentatives ont échoué, jusqu'à nouvel ordre. Ainsi les invalidations du théorème de Bell, répétées jusqu'à ce jour avec une précision de plus en plus grande, ont montré qu'il était impossible d'en revenir aux descriptions de la localité inhérentes à la science ordinaire, dite aussi macroscopique. Plus généralement, il fallait abandonner le postulat selon lequel existe une réalité extérieure aux observateurs et à leurs instruments, que ceux-ci doivent se borner à décrire au plus près mais qu'ils ne peuvent prétendre recréer d'une quelconque façon.

De nos jours encore se développent donc deux approches de l'univers incompatibles, celle de la physique et plus généralement de la science macroscopique, et celle de la physique quantique, appliquée à un univers microscopique échappant à toute description réaliste. Seules sont acceptables en ce dernier cas les descriptions statistiques probabilistes, et ceci dans des contraintes bien définies. On parle plutôt alors, selon les termes de Mme Mugur Schächter, de « descriptions transférées » sur l'instrument et participant donc d'une méthode de conceptualisation relativisée (MCR).

Celle-ci doit s'appliquer aujourd'hui, non seulement à la physique des entités microscopiques et de leurs états (micro-états), mais à la cosmologie étendue à l'univers entier. Les cosmologistes ont fait depuis longtemps la constatation que l'univers comporte trop de propriétés relevant d'une description par la physique quantique (trous noirs, vide quantique) pour pouvoir faire appel encore au déterminisme et au réalisme inspirant les modèles einsténiens de l'espace-temps, lesquels reposent sur la gravité.

Beaucoup de chercheurs n'ont évidemment pas renoncé à rendre compatibles la mécanique quantique et la physique traditionnelle, dans le cadre de tentatives de synthèse relevant de ce qu'ils ont nommé la gravitation quantique. Mais cette dernière, restée essentiellement théorique, n'a pas encore abouti à proposer de modèles permettant de simuler l'univers dans tous les états qu'il présente à l'observation contemporaine.

Ceci conduit à se demander s'il ne faudrait pas inverser l'ordre des priorités, concernant les méthodes scientifiques dans leur ensemble. Nous avons dit que la grande majorité des chercheurs, adeptes de l'approche traditionnelle, appliquée au monde macroscopique, se sont efforcés sans succès de « rendre traditionnelles » les observations du monde microscopique. Ne faudrait-il pas faire l'inverse et s'efforcer de rendre quantiques les descriptions du monde macroscopique.?

Impossible, disent ceux tentées par une telle approche, sauf à renoncer à toute science classique, nécessairement réaliste et déterministe. Une chaise, par exemple, est un objet réel indépendant de l'observateur. Je ne pourrais pas la modifier simplement en changeant les méthodes d'observation ou les observateurs permettant de la décrire. Si je veux la modifier, je dois faire appel aux outils, strictement réels et déterministes, de la menuiserie. Affirmer le contraire nous ramènerait à la sorcellerie des âges anciens.

Etudier les cerveaux

Mais raisonner ainsi court-circuite l'étude, qui devrait être un préalable, des instruments par lesquels j'observe et conceptualise le monde: instruments physiques mais aussi instruments biologiques, sensoriels et cérébraux. Notre cerveau n'a été conduit à postuler l'existence d'un réel extérieur à lui que lors d'une évolution très récente de la culture humaine. Ne peut-on penser que, à des époques plus ancienne, les cerveaux de nos prédécesseurs, et plus généralement leurs organismes, n'avaient rien imaginé de tel concernant le monde extérieur. Qu'en est-il par ailleurs des cerveaux des animaux et plus généralement de tous les organismes vivants qui s'adaptent parfaitement à leur milieu sans faire d'hypothèses inspirées de près ou de loin par la physique de l'espace-temps einsténien. Ils se sont depuis des centaines de millions d'années construits sur le mode, implicite, d'une conceptualisation relativisée. Ceci leur a bien réussi. Mais les humains récents ne sont-ils pas en train de se détruire par la pratique d'une science « réaliste » dont les succès temporaires ne doivent pas cacher les insuffisances profondes.

Autrement dit, ne pourrait-on pas suggérer que le monde animal dans son ensemble, incluant les hommes primitifs, s'est construit dès les origines – sans bien entendu se le représenter explicitement – d'une façon compatible avec les propriétés d'un univers quantique, proprétés existantes "de tous temps" mais tardivement découvertes par certains physiciens et encore très largement refusées. Mais alors, s'appuyant sur cette hypothèse, que pourrait-être une science de l'univers quotidien fondée sur les bases conceptuelles de la physique quantique?

Il lui faudrait d'abord explorer tous les domaines des sciences et des technologies faisant appel à la création et à la manipulation de ce que l'on nomme les particules ou bits quantiques. Ceci se fait dans de nombreux dispositifs utilisant des particules quantiques, comme les microscopes à effet tunnel. Mais ceux-ci mobilisent des flux ne permettant pas d'individualiser les particules individuelles. Ce n'est plus le cas avec les ordinateurs quantiques dont les unités de calcul utilisent des « bits » individuels dotés de toutes leurs propriétés « bizarres ». Au delà, il faudra explorer systématiquement tous les systèmes naturels, y compris biologiques, pouvant mettre en oeuvre des particules quantiques. Il semble que ce soit le cas au sein de certains organes d'oiseaux ou de mammifères marins. On a même soupçonné que de telles particules pourraient intervenir dans les circuits cérébraux humains, expliquant leurs performances encore inexpliquées, par exemple en matière de représentations conscientes d'elles-mêmes. Ces recherches sont aujourd'hui peu encouragées, compte tenu des préjugés hérités de la science macroscopique. Il faudrait les développer.

Le grand enjeu

Le grand enjeu des prochaines années ou décennies ne se limitera cependant à cela. La question, déjà posée par les futurologues les plus audacieux concerne la possibilité que pourraient avoir des robots, voire des organismes humains, de circuler dans le cosmos selon des modalités permettant d'atteindre avec des délais raisonnables les astres extérieurs au système solaire. La physique einsténienne répond à cette question par un niet absolu. A plus forte raison refuse-t-elle les perspectives de voyages dans le temps, ou les passages d'un univers à l'autre, si l'on retient l'hypothèse des multivers. Mais en physique quantique, ces interdictions n'ont pas lieu d'être.

Pour s'en affranchir, il ne serait pas question de prétendre transformer un organisme humain en un ensemble de particules quantiques. Il faudrait peut-être seulement se demander si nos cerveaux, formés aux contraintes de la physique macroscopique, n'auraient pas « inventé » des impossibilités théoriques non fondées. Ne pourrait-on imaginer au contraire qu'en « pensant » l'univers en s'inspirant des postulats méthodologiques (pour ne pas dire métaphysiques) de la physique quantique, nos cerveaux pourraient découvrir que certaines au moins des impossibilités inhérentes à une description einsténienne du monde, liées au temps et à l'espace, ne s'imposeraient plus.

Ceci ne veut pas dire que nous pourrions immédiatement nous affranchir des contraintes de temps et d'espace afin de naviguer librement dans un cosmos indéterminé analogue à ce que nous imaginons qu'il était avant le big bang. Cela voudrait dire seulement que nous pourrions imaginer puis construire, en nous inspirant des méthodes de conceptualisation relativisée proposées par Mme Mugur Schächter, de véritables environnements quantiques à échelle humaine, échappant à certaines des contraintes du déterminisme einsténien, environnements auxquels nous pourrions nous adapter.

Repost 0
21 septembre 2013 6 21 /09 /septembre /2013 14:39

Aux sources de la parole. Auto-organisation et évolution


Commentaires par Jean-Paul Baquiast
21/09/2013

Pierre-Yves Oudeyer, directeur de recherche à l'Inria, étudie les mécanismes du développement sensori-moteur, cognitif et social chez l'humain et chez les robots. Suivant une approche multidisciplinaire, où les sciences du numérique par- ticipent à notre compréhension du vivant et de l'homme, il s'intéresse au rôle de l'auto-organisation et de l'apprentissage au cours des interactions entre cerveau, corps et environnement physique et social.

Lauréat du programme européen ERC et du prix Le Monde de la recherche universitaire, il dirige l'équipe Flowers à Inria et à l'Ensta ParisTech, et a été chercheur au Sony Computer Science Laboratory à Paris.

Page personnelle http://www.pyoudeyer.com/AuxSourcesDeLaParole.htm

Présentation du thème du livre par l'auteur http://www.pyoudeyer.com/Article_Cible_P-YOudeyer-v4-1.pdf

Les origines du langage : un champ de recherche florissant

Il y a très longtemps, les humains ne produisaient que des grognements inarticulés.
Or, maintenant ils parlent. La question de savoir comment ils en sont venus à parler
est l'une des questions les plus difficiles qui soit posée à la science. Alors qu'elle a été éludée de la scène scientifique pendant la presque totalité du 20ème siècle, à la
suite de la déclaration de la Société Linguistique de Paris qui la bannit de sa
constitution, elle est redevenue le centre des recherches de toute une communauté
de chercheurs. La diversité des problématiques qui sont impliquées induit une forte
pluridisciplinarité : des linguistes, des anthropologues, des spécialistes de
neurosciences, des primatologistes, des psychologues, mais aussi des physiciens et
des informaticiens.

En effet, l'un des grands axes théoriques de la recherche sur les origines du langage considère qu'un certain nombre de propriétés du langage ne s'expliquent que par la dynamique des interactions complexes des entités qui sont impliquées (les interactions entres les circuits neuronaux, le conduit vocal, l'oreille, mais aussi les interactions des individus qui les portent dans un environnement réel). C'est l'apport de la théorie de la complexité (Nicolis et Prigogine, 1977), développée au 20ème siècle, qui nous a appris qu'il y a de nombreux systèmes naturels dans x systèmes naturels dans lesquels les propriétés macroscopiques sont irréductibles aux propriétés microscopiques. C'est ce qu'on appelle l'auto-organisation.

C'est par exemple le cas des structures fascinantes des nids de termites, dont la forme n'est ni codée ni connue par aucune des termites prises individuellement, mais apparaît de manièreauto-organisée lors de leurs interactions. C'est aussi le cas de la formation des cristaux de glace à partir de molécules d'eau. Or ces phénomènes d'auto-organisation sont souvent compliqués à comprendre ou à prévoir intuitivement, et à formuler verbalement.

C'est pourquoi en plus des linguistes, des psychologues, des anthropologues, des
chercheurs en neurosciences, des généticiens et des physiologistes, les
mathématiciens et les informaticiens/roboticiens ont désormais un rôle crucial dans la recherche des origines du langage. En effet, ils disposent d'outils nouveaux et indispensables pour nous permettre de comprendre les phénomènes d'auto-organisation dans les systèmes complexes. Ils construisent des modèles opérationnels des interactions entre les sous-systèmes impliqués dans le langage. Un modèle opérationnel est un système qui définit formellement l'ensemble de ses pré-suppositions et surtout qui permet de calculer ses conséquences, c'est-à-dire de prouver qu'il mène à un ensemble de conclusions donn
ées.

Il existe deux grands types de modèles opérationnels. Le premier, celui utilisé par les mathématiciens et certains biologistes théoriciens, consiste à abstraire du phénomène du langage un certain nombre de variables ainsi que leurs lois
d'évolution sous la forme d'équations mathématiques. Cela ressemble le plus
souvent à des systèmes d'équations différentielles couplées, et bénéficie du cadre de la théorie des systèmes dynamiques. Le second type, qui permet de modéliser des phénomènes plus complexes que le premier, est celui utilisé par les chercheurs en intelligence artificielle: il consiste à construire des systèmes artificiels implantés dans des ordinateurs ou sur des robots. Ces systèmes artificiels sont composés de programmes qui le plus souvent prennent la forme d'agents artificiels, qu'on pourra appeler robots même s'ils évoluent dans des environnements virtuels, dotés de cerveaux et de corps artificiels. Ceux-ci sont alors mis en interaction dans un environnement artificiel ou réel, et on peut étudier leur dynamique. C'est ce qu'on appelle la « méthode de l'artificiel » (Steels, 199
7).

_____________________________________________________________________________

En 2003, c'est à dire 10 ans avant la parution de son dernier livre, Aux sources de la parole, nous avions le plaisir de publier une présentation de la thèse de Pierre-Yves Oudeyer, l'auto-organisation de la parole ainsi qu'un long et fructueux entretien avec l'auteur.

Les bases conceptuelles et méthodologiques sur lesquelles s'était appuyé Pierre Yves Oudeyer sont restées très voisines, ce qui prouve l'avance qu'il avait prise sur la pensée scientifique consacrée à l'émergence de la parole chez les humains. On les retrouve dans le livre, ce qui permettra à nos lecteurs de s'en informer en parcourant nos deux articles précités avant d'entreprendre la lecture de l'ouvrage proprement dit. Nous n'aurons en ce qui nous concerne pas besoin d'y revenir dans la présente présentation, puisqu'elles ont été discutées dans ces deux articles.

Le livre, comme il était prévisible, s'appuie sur des travaux de simulation robotique bien plus développés que ceux qui étaient permis à l'époque en travaillant sur les robots de Sony. L'auteur a quitté Sony et à rejoint l'Inria, organisme de recherche publique créé aux origines du Plan Calcul et dédié aux technologies de l'information et de la communication. Il y a mis en application, en liaison avec d'autres chercheurs étudiant la robotique évolutionnaire, ses hypothèses sur l'auto-organisation de la parole en travaillant sur des robots de plus en plus perfectionnés. De tels robots, physiques ou virtuels, sont utilisés par ailleurs aujourd'hui pour la compréhension d'un grand nombre de mécanismes propres au vivant, notamment à la genèse et au rôle du cerveau chez l'homme.

Le livre réunit plusieurs approches assez différentes. La première (chapitre 1 à 3) développe le concept d'auto-organisation et son application au langage et à la parole. La seconde (chapitre 4) rappelle les théories, dont certaines se veulent encore actuelles, concernant les origines de la parole. Ce sont ces théories que le livre propose de remplacer. La troisième approche (chapitres 5,6, 7 et 8) développe en détail des modèles artificiels destinés à renouveller de façon souvent approfondie les théories traditionnelles, à partir de populations de robots interagissant dans divers environnements. Ces développements, à la différence du reste du livre, sont quelque peu techniques, voire mathématiques. Ils n'intéresseront que les spécialistes de la discipline. Le lecteur plus généraliste pourra se limiter à les survoler. La quatrième approche enfin (chapitres 9 et 10) tire les conclusions épistémologiques de ce qui précède, tant concernant les origines du langage (exaptation?) que d'autres comportements plus ou moins complexes intéressant non seulement les humains mais aussi beaucoup d'animaux.

Commentaires

Nous ne reprendrons pas ici les nombreuses questions intéressant la philosophie des sciences que pose le travail très riche de Pierre-Yves Oudeyer. Comme indiqué ci-dessus, le lecteur intéressé les retrouvera dans nos deux articles cités en référence, ainsi que les réponses et compléments de l'auteur. L'ensemble demeure d'actualité.

Par contre, plus de 10 ans après, l'utilisation de la robotique comme outil pour comprendre sinon l'univers entier, du moins le développement de la vie, est de plus en plus à l'ordre du jour. A cet égard nous pouvons considérer, pour l'en féliciter, que Pierre-Yves Oudeyer demeure un des premiers scientifiques français (pour ne pas dire quasiment le seul) qui puisse participer avec les compétences suffisantes au vaste mouvement autour duquel se reconstruiront la plupart des sciences, concernant l' « émergence » d'un cerveau artificiel.

De l'avis général des personnes s'intéressant à l'évolution des sciences et leur impact sur les organisations sociales, trois grandes révolutions, déjà en cours, se préciseront dans les prochaines décennies. Il s'agit de trois domaines se développant à grande vitesse, sous la pression d'investissements tout autant militaires que civils: le cerveau artificiel distribué, la biologie synthétique et la prise en compte du rôle des « bits quantiques » dans les mécanismes modélisés par les sciences macroscopiques. Dans les deux premiers, pour nous limiter à eux, ce que l'auteur appelle la méthode de l'artificiel joue un rôle particulièrement déterminant. Il s'agit d'utiliser des populations d'entités robotiques de plus en plus complexes et autonomes pour comprendre d'abord, reproduire et étendre ensuite les phénomènes que nous pouvons observer dans le monde naturel.

Le travail de Pierre-Yves Oudeyer en donne un excellent exemple. Appliqué au langage, nous pensons pour notre part qu'il ne se borne pas à mieux faire percevoir es sources de la parole. Il devrait permettre, s'il était développé et étendu, d'introduire de la parole intelligible dans des entités constituées de machines, d'automates et de réseaux algorithmiques qui en sont dépourvues. Cette parole sera d'autant plus intéressante qu'elle ira bien au delà des paroles que peuvent échanger les humains connectés à ces artefacts. Il s'agira de contenus perceptifs et cognitifs tout à fait originaux.

En fait, ces machines et réseaux disposent déjà de volontés organisées autour de processus de conquête plus ou moins spontanés, comme le montre le développement aujourd'hui exponentiel d'entreprises dont Google est l'exemple le plus éclatant, ou de systèmes d'armes dits intelligents, utilisant par exemple des drones de diverses catégories – pour ne pas mentionner, dans un autre domaines, les ambitions des religions de conquête se déversant sur le web. Ces processus s'expriment déjà par des langages et des paroles. Mais les humains ordinaires ne les comprennent pas et, a fortiori, sont incapables d'intervenir dans les échanges pour tenter de les influencer...ceci d'autant plus que, pour des raisons de compétitivité commerciale ou de secret défense, les sources permettant de les analyser ne sont pas facilement disponibles.

Il serait pourtant indispensable de le faire, pour de simples raisons tenant aux équilibres politiques et à la survie de la démocratie. Si les humains ordinaires ne sont pas capables de décrypter les langages des nouveaux pouvoirs, la démocratie déjà bien compromise disparaîtra rapidement. On dira que, au moins dans les pays occidentaux, des myriades de sociologues et politologues analysent déjà les langages utilisés par les pouvoirs politiques et économiques. Mais ils le font avec des outils classiques, qui ne permettent pas d'identifier ou analyser les paroles et les processus langagiers de ceux qui s'efforcent de nous dominer. Il serait impératif dans ces conditions que des myriades de spécialistes des systèmes artificiels et de leurs échanges, formés à l'école dont Pierre-Yves Oudeyer est un des meilleurs représentants français, prennent le relais, en coopération d'ailleurs avec les analystes plus classiques qui se formeraient à cette occasion.

Malheureusement, en Europe et a fortiori en France, il apparaît que nous serions loin de pouvoir mettre en oeuvre de telles études. D'une part, les compétences universitaires, comme le montre la bibliographie du livre, ne dépassent pas quelques dizaines d'individus. D'autre part les crédits qui seraient nécessaires pour faire apparaître les « sources » et les générateurs des nouvelles paroles politiques visant à nous contrôler sont quasi inexistants. Les financements comme nous l'avons indiqué, restent essentiellement militaires, sous l'égide de la Darpa, agence du département de la défense et de la NSA, aux Etats-Unis ou - ce qui ne vaut pas mieux - dans le cadre des financements considérables consentis par les entreprises américaines du web pour conquérir les milliards de cerveaux humains connectés à Internet et au téléphone portable.

C'est pourquoi nous pensons, pour en revenir au livre de Pierre-Yves Oudeyer, qu'il est un peu triste de penser que, comme nous le prévoyions (peut-être à tort), l'essentiel de ses lecteurs se borneront à survoler sans les comprendre en profondeur les chapitres consacrés à « la méthode de l'artificiel ». Ce n'est pas un reproche que nous faisons à l'auteur. Il n'est pas responsable de l'incompétence de la plupart d'entre nous dans ces domaines. C'est un reproche au système éducatif français qui n'a pas encore perçu l'importance véritablement politique de ces questions.

A lire
Présentation de la thèse de Pierre-Yves Oudeyer, l'auto-organisation de la parole http://www.automatesintelligents.com/labo/2003/dec/pyo.html et entretien avec l'auteur http://www.automatesintelligents.com/interviews/2003/dec/pyoudeyer.html

Repost 0
27 août 2013 2 27 /08 /août /2013 20:45


Critique par Jean-Paul Baquiast 25/08/2013

Article provisoire

Thomas Nagel (né en juillet 1937) est un philosophe américain.

Il est actuellement professeur d'université en philosophie et droit à l'Université de New York. Ses principaux centres d'intérêts sont la philosophie de l'esprit, la philosophie politique et l'éthique.


Voir Wikipedia http://en.wikipedia.org/wiki/Thomas_Nagel

Le dernier livre du philosophe de la connaissance Thomas Nagel, présenté ici, bien que court, s'inscrit sous un titre très agressif, avec des arguments tenant compte de l'évolution récente des sciences, dans une discussion plus que millénaire: l'univers matériel donne-t-il naissance à des structures capables de vie, de conscience, de connaissance et finalement de valeurs morales? L'apparition de ces structures est-elle spontanée ou suppose-t-elle au contraire l'intervention d'un esprit extérieur à la matière qui lui imposerait des finalités supérieures? On reconnaît dans cette dernière façon de poser la question le dualisme matière/esprit qui depuis qu'elles existent inspire les religions et les divers spiritualités. Leur version, très à la mode aujourd'hui du fait du poids politique des Etats-Unis dans les débats d'idées, est le créationnisme, dans sa version dure d'inspiration biblique ou dans sa version douce, telle que déclinée par les défenseurs du « dessein intelligent ». Ceux-ci ne rejettent pas les explications scientifiques mais les inscrivent dans une évolution orientée vers la réalisation de finalités de nature spirituelle.

Or Thomas Nagel a toujours refusé d'être rangé parmi les spiritualistes dualistes ou les théistes, pour qui la science moderne peut s'accommoder de l'hypothèse d'un Dieu organisateur, fut-il très lointain. Il s'est toujours affirmé comme radicalement athée, ce qui n'est pas sans un certain courage dans un monde ou les religions de combat se font de plus en plus entendre et où l'athéisme est de plus en plus assimilé au blasphème, pouvant éventuellement être puni de mort. Mais l'intérêt de Mind and Cosmos est que le livre, comme d'ailleurs les articles précédents de Thomas Nagel, ne reprend pas l'approche matérialiste physicaliste généralement partagée par l'ensemble des sciences dites occidentales, marquées par le déterminisme. Selon cette approche, des causes physiques, élucidables par la science, permettent d'expliquer l'apparition de la vie et des différents attributs dont certains organismes vivants se sont trouvés dotés sur Terre; notamment la conscience, accompagnée d'une aptitude à la connaissance et aux comportements de type moraux. Ces causes s'expriment dans le processus darwinien expliquant l'apparition de la vie et de ses diverses propriétés par le mécanisme de la mutation au hasard/sélection. Or Thomas Nagel ne juge pas crédible l'hypothèse darwiniste , aussi puissant puisse être le darwinisme lorsqu'il se déroule sur des milliards – ou au moins des centaines de millions d'années.

La téléologie

L'alternative au darwinisme proposée par Thomas Nagel est la téléologie (qu' il ne faut évidemment pas confondre avec la théologie), ou évolution orientée par l'apparition de buts qui définissent a priori des finalités capables d'orienter les modalités évolutives des organismes. L'approche téléologique est acceptée dans une certaine mesure par la biologie et la physiologie. Le développement d'un embryon commandé par l'expression de ses gènes se fait dans le cadre de choix bien définis au préalable. Mais pour que l'hypothèse téléologique soit viable à grande échelle, celle de la planète voire du système solaire et de la galaxie, il faudrait qu'elle repose sur la mise en évidence de contraintes et de finalités d'une toute autre ampleur. Or les sciences modernes n'ont pas voulu approfondir cette possibilité, ne fut-ce que dans le souci compréhensible de ne pas rouvrir des portes à l'idéalisme spiritualiste toujours près de s'y engouffrer.

La difficulté à laquelle se heurte Thomas Nagel, non seulement dans ce livre mais dans l'ensemble de son oeuvre, est simple à résumer: il réussit sans trop rencontrer d'oppositions à rassembler les nombreux arguments présentés, depuis Charles Darwin lui-même, à la vraisemblance d'un développement vital né du simple hasard, contraint par la nécessité résultant de la sélection pour la vie. C'est comme on le sait l'argument essentiel des créationnistes, selon lequel par exemple le développement d'un organe aussi complexe que l'oeil ne peut découler du processus darwinien, compte-tenu notamment du temps relativement bref au cours duquel il s'est produit. Les darwiniens, avec Richard Dawkins en ce cas, se sont efforcés au contraire de montrer qu'un tel développement était possible, en s'appuyant sur les preuves expérimentales concernant l'apparition d'organes de vision de plus en plus sophistiqués.

Mais pour se laisser convaincre, selon Nagel, qui rejoint en cela sans les partager les arguments des créationnistes, il faut faire montre d'une grande bonne volonté, approchant une sorte de foi religieuse. Les preuves avancées par les darwiniens restent selon lui très fragiles. L'ensemble du livre, Mind and cosmos, développe cet argumentaire, en l'appliquant à l'apparition, non seulement de la vie, mais de la conscience, de la raison générant la connaissance scientifique du monde et finalement de la morale, reconnaissant l'existence de valeurs dépassant le seul intérêt des individus et dont les espèces biologiques dotées d'une certain complexité sont capables de s'inspirer, même si ces valeurs sont contraires à leurs intérêts immédiats. .

Dans tous ces cas existent de nombreux arguments découlant d'un déterminisme évolutionnaire darwinien ou néo-darwinien qu'admettent faute de mieux les scientifiques matérialistes, mais qui peuvent apparaître, selon l'expression populaire, quelque peu « tirés par les cheveux ». Nagel énumère en détail les objections suscitées par ces arguments. La difficulté à laquelle cependant il se heurte à son tour se heurte Nagel est qu'il ne peut pas, de son propre aveu, fournir d'arguments scientifiques, observables et vérifiables, permettant de justifier les développements téléologiques auxquels, à son tour, il accorde sans vouloir le reconnaître une sorte de foi religieuse. Dans l'état actuel de la science, le lecteur du livre, comme ceux qui s'intéressent à ses thèses, se trouvent par conséquent écartelés entre des « croyances » différentes, pas plus faciles à démontrer les unes que les autres.

Perspectives cosmologiques

Avec un peu de recul, nous sommes obligés en effet de constater qu'il faut beaucoup de foi, si l'on peut dire, pour se convaincre que l'évolution de la vie sur Terre s'insère dans un mécanisme darwinien d'une très grande ampleur, selon lequel ce serait l'ensemble de l'évolution de notre univers qui aurait été, soit par hasard soit par suite d'une construction initiale, déterminé par des contraintes permettant l'apparition de systèmes vivants, intelligents et finalement moraux. Cependant nos lecteurs sont suffisamment informés des développements récents de la cosmologie scientifique pour ne pas refuser de telles perspectives, sans mentionner la recherche sur Terre même de formes de vies encore inconnues, par exemple dans les grands fonds océaniques ou géologiques. Elles sont à la source de toutes les hypothèses actuelles concernant l'existence de vies et d'intelligences extraterrestres. Même si de telles hypothèses n'ont pas encore abouti, il serait absurde de les considérer comme une fuite en avant de la science dure matérialiste vers des horizons que Nagel qualifierait, sans nuance péjorative de sa part d'ailleurs, de métaphysiques.

Résumons en deux mots la problématique évolutionniste actuelle, telle qu'elle pourrait s'appliquer à l'histoire d'un corps céleste, d'un système solaire, d'une galaxie voire d'un univers abritant des conditions dites life-friendly, c'est-à-dire potentiellement favorables à l'apparition de le vie – ou même de formes de vie pas très différentes de celles que nous connaissons. Il faut que ce corps céleste abrite des conditions physiques et des composants permettant la formation de molécules complexes susceptibles de s'organiser, sous la forme de ce que nous appelons l'ARN ou l'ADN, en ensembles stables reproductifs. Il faut que s'engage le processus darwinien de reproduction au hasard par essais et erreurs permettant que des structures plus complexes encore naissent des précédentes et qu'une compétition entre elles pour l'accès aux ressources entraine la disparition des formes les moins adaptées et le succès, gage de développements ultérieurs, de formes s'étant révélées mieux adaptées, qu'elles soient d'ailleurs plus complexes ou simplement différentes.

Il faut enfin que ce processus d'ensemble se révèle à l'usage suffisamment pervasif (ou ubiquitaire, selon l'expression des informaticiens) pour qu'il s'étende en des délais relativement courts, quelques milliards d'années sinon bien moins, à l'ensemble des milieux caractérisant l'astre considéré. La suite, c'est-à-dire l'apparition au sein des structures dites biologiques en découlant, d'organismes dotés de capacités, pouvant être plus ou moins marquées, voire pouvant être différentes, de langages, de consciences de soi, d'aptitudes à la construction de modèles cognitifs du monde plus ou moins efficaces et finalement de capacités à créer puis identifier des qualia ou valeurs dites morales, ne serait qu'une question de temps, si les conditions favorables initiales nécessaires étaient rassemblées.

Or si ces mêmes conditions favorables se retrouvaient sur d'autres planètes, dans la galaxies, dans d'autres galaxies et pourquoi pas (selon l'hypothèse des multivers) dans d'autres univers, pourquoi ne pas imaginer que ces planètes, et plus généralement le cosmos, au cours de l'histoire cosmologique que nous leur attribuons, puissent héberger des êtres vivants, conscients, intelligents et moraux, comparables – ou non – à ce que nous sommes, autrement dit. devenir globalement plus intelligents ?

ll faudrait évidemment obtenir des preuves matérielles vérifiables de tels évènements pour en faire l'un des fondements de notre science actuelle. Ceci n'a pas encore été le cas, mais comme nous l'avons indiqué plus haut, l'hypothèse opposée, dite téléologique, à laquelle se référe Thomas Nagel, n'est pas davantage vérifiable. Les athées tels que Nagel devront dans ce cas choisir entre postulats métaphysiques différents, sinon opposés. La difficulté d'un tel choix ne sera pas pour eux, s'ils disposent d'une philosophie scientifique suffisamment solide, un prétexte pour se renvoyer en désespoir de cause à des explications non pas téléologiques, mais théologiques, autrement dit faisant appel à un hypothétique Dieu dans la machine, tout aussi difficile à admettre par celui qui dispose d'un minimum de bon sens.

Pour poursuivre le débat, on pourra se demander si un corps céleste, voire une galaxie, dotée par l'évolution d'entités vivantes et intelligentes comparables à ce que nous sommes, pourrait se retrouver dans la compétition interstellaire en position plus favorable que celles de ses homologues qui en seraient restées à des formes d'organisation physico-chimiques plus simples. La réponse dépendra du jugement que l'histoire cosmologique nous permettra de porter sur les avantages comparés dont disposent des astres intelligents au regard d'autres plus primitifs. Les idéologues anti-science nombreux sur Terre expliqueront qu'à terme la science et les techniques associées seront une malédiction pour notre planète. Mais nous ne les suivrons pas évidemment dans ce jugement.

La question du hasard ou de l'aléatoire.

Un des arguments forts employés par Thomas Nagel pour repousser le déterminismee physico-chimique et ses développements dans le domaine biologique est que le hasard ne suffit pas à rendre probable l'apparition dans l'univers des structures complexes, qu'elles aient été physico-chimiques ou a fortiori biologique. Il fallait que jouent des forces beaucoup plus puissantes et systématiques, inscrites si l'on peut dire de tous temps dans la nature, y compris pourquoi pas au niveau des lois fondamentales de la physique. Mais rappelons le, Nagel s'avoue lui-même incapable de préciser ce que pourraient être ces forces, en dehors de l'évocation d'une prédestination divine qu'à juste titre il refuse.

Nous pourrions pour notre part nous étonner du fait qu'arrivé à ce stade de son itinéraires philosophico-scientique, il ne fasse pas davantage allusion aux perspectives ouvertes par la physique quantique, qui débordent de plus en plus le domaine des sciences dites microscopiques pour envahir le domaine des sciences macroscopiques. Mais ceci se comprend car Thomas Nagel est un « réaliste » convaincu. Autrement dit. il postule l'existence d'un réel extérieur à l'homme et que la science doit se donner la mission de découvrir et préciser. Nous sommes là aux antipodes de l'approche dite par Mioara Mugur-Schächter du relativisme épistémologique découlant de la prise en compte des modèles du monde proposés par la mécanique quantique. Dans le cadre de cette dernière approche, le réel n'est pas objectif mais au mieux intersubjectif et instrumental. Il est construit en permanence par les développements de la physique quantique et des sciences, telle la cosmologie quantique, s'en inspirant.

Nous ne reprendrons pas ici les nombreux articles consacrés sur ce site à ce qu'il faut bien appeler la marche conquérante de la physique quantique et de ses conséquences épistémologiques. Disons que les plus potentiellement créatrices de ces conséquences obligent à considérer avec un regard nouveau le fonctionnement du cerveau et celui de l'esprit qui découle de ce dernier. Pour simplifier, on parlera d'une approche constructiviste qui oblige à prendre en considération l' « émergence » d'entités échappant aux contraintes du déterminisme physico-chimique linéaire. Le terme d'émergence paraît relever de la facilité de vocabulaire, mais il traduit bien le fait que, dans le monde quantique et dans les mondes physiques déterminés par lui, peuvent apparaître à tous moments des mécanismes, déterminismes ou concepts de type probabilistico-statistiques s'appliquant aux grandes masses de données – que ces données soient d'ailleurs déjà identifiées par la science ou qu'elles ne le soient encore qu'incomplètement.

Dans cette perspective rien n'obligerait la science des modèles constructivistes à refuser l'apparition, sur la Terre ou sur tout autre corps céleste, de propriétés qui ne découleraient pas de déterminismes préalables, ceci que nous soyons ou non conscients de l'existence de ces propriétés. A la limite, diraient les optimistes de la philosophie constructiviste, pourquoi ne pas imaginer que de telles propriétés puissent naître de façon statistico-probabiliste dans les univers « chaotiques » de nos cerveaux, puis se matérialiser ensuite sous l'effet des comportements constructifs des individus ou groupes les ayant adoptées. A ce moment, l'univers, tout au moins sur la Terre et dans les astres proches, pourrait se transformer de façon spontanée dans un sens actuellement imprévisible ou peu prévisible, à condition que les propriétés ainsi « imaginées » soient capables de mettre en action des forces physico-chimiques, voire cosmologiques préexistantes (c'est-à-dire pour certaines d'entre elles relevant du quantique intemporel).

Il est peu probable que la science moderne, sous ses aspects les plus constructifs, enrichie de telles considérations, puisse s'étendre à l'ensemble de la planète, et a fortiori à l'ensemble du système solaire ou de la galaxie? Mais pourquoi ne pas imaginer cependant qu'elle puisse avoir une influence faible ou forte, immédiatement ou plus tard, dans le monde indescriptible parce que chaotique des conflits entre informations se déroulant d'un système planétaire à un autre.

Références
Faute de temps nous ne pouvons proposer ici d'étude critique suffisamment complète des thèses évoquée par le livre de Thomas Nagel. Le lecteur pourra se tourner vers les trois articles ci-dessous, provenant d'auteurs inégalement convaincus.
* Newyorker http://www.newyorker.com/online/blogs/books/2013/07/thomas-nagel-thoughts-are-real.html
* The NewYork Review of books http://www.nybooks.com/articles/archives/2013/feb/07/awaiting-new-darwin/?pagination=false
* The Partially Examined Life
http://www.partiallyexaminedlife.com/2013/02/07/evolution-is-rigged-a-review-of-thomas-nagels-mind-and-cosmos/

* Sur les travaux de Miora Mugur Schachter, voir à titre d'introduction " L'infra-mécanique quantique" ouvrage au format.pdf accessible en téléchargement gratuit à partir de notre site. http://www.admiroutes.asso.fr/larevue/2011/115/IMQ.pdf

Repost 0
15 août 2013 4 15 /08 /août /2013 20:53


Jean-Paul Baquiast 13/08/2013

Nous avions signalé précédemment la pertinence de l'analyse d'un représentant de l'Eglise orthodoxe russe, assimilant à un goulag électronique le système global de saisie, d'espionnage et de contrôle que les services de renseignements américains, sous l'égide de la NSA et du gouvernement fédéral, imposent à toutes les formes d'expressions empruntant le support de l'Internet et des réseaux numériques. 1)

Comment ce personnage définit-il le goulag électronique américain ?

« Un camp de prisonniers électronique global...D'abord l'on habitue les gens à utiliser de façon systématique des outils de communication commodes avec les autorités, les entreprises et entre eux. Très rapidement chacun s'habitue de faon addictive à de tels services. Ceci donne à ceux qui possèdent économiquement et politiquement ces outils un pouvoir à la fois considérable et terrifiant. Ils ne peuvent pas repousser la tentation de s'en servir pour contrôler les personnalités. Ce contrôle peut devenir beaucoup plus complet qu'aucun de ceux exercés par les systèmes totalitaires connus au vingtième siècle » .

Le terme de goulag, rendu célèbre par le romancier Alexandre Solienitzin, désigne classiquement le système pénitentiaire russe. Celui-ci, encore en activité sous une forme à peine "améliorée" , est constitué de camps de travail et de détention répartis aux frontières de la Russie. Ils enferment des centaines de milliers de condamnés, dans des conditions précaires sinon indignes. Il est très difficile de s'en évader. Les peines sont souvent très longue ou à perpétuité. La plupart des prisonniers sont des détenus de droit commun, mais un nombre non négligeable d'entre eux a été et demeure des opposants politiques ou personnes poursuivies pour des délits d'opinion. On peut se demander pourquoi les systèmes pénitentiaires des démocraties occidentales, dont les conditions de fonctionnement n'ont guère à envier au goulag russe, ne souffrent pas de la réputation infamante de ce dernier...sans doute est-ce du au fait que l'arbitraire y est en principe moindre.

Quoiqu'il en soit, le propre d'un goulag est d'être mis en place et organisé par un pouvoir dominant qui s'impose délibérément à des minorités dominées. On ne parlerait pas de goulag, sauf par abus de langage, si les conditions d'enfermement résultaient de circonstances n'ayant rien à voir avec une volonté de répression dictatoriale, patients dans un hôpital psychiatrique ou personnes isolées sur un territoire dépourvu de liaisons avec le reste du monde, par exemple.

Pourquoi parler de goulag numérique ?

Sous sa forme imagée, le terme de goulag désigne un système d'enfermement physique ou moral condamnable au regard des libertés civiques et des droits de l'homme. Le monde des réseaux numériques mérite-t-il d'être ainsi qualifié, alors qu'il est de plus en plus considéré par ses milliards d'utilisateurs comme un moyen d'émancipation hors pair. Rappelons qu'il permet en effet non seulement les échanges par l'internet mais aussi les communications faisant appel au téléphone portable, dont la souplesse est sans égal dans les pays dépourvus d'infrastructures développées. Pour leurs utilisateurs ces deux technologies apparaissent non comme des goulags mais au contraire comme des élément incomparables d'émancipation. Elles leur permettent en effet d'échapper à l'enfermement au sein de modes d'expression traditionnels, dominé par des autorités rigides, religieuses, sociales, médiatiques.

S'imaginer cependant que des solutions technologiques, représentant des coûts considérables, viendraient subitement s'épanouir dans nos sociétés pour le seul bénéfice des citoyens et du jeu démocratique, serait un peu naïf. Nul ne fait de cadeau à personne. Si un service est rendu, il doit être payé. Il en est de même d'ailleurs d'autres services de communication, radiodiffusion et télévision. L'expérience montre que leurs premiers bénéficiaires en sont leurs promoteurs.

Ceux-ci peuvent être regroupés en deux grandes catégories, les entreprises commerciales et les administrations publiques. Elles s'en servent prioritairement pour établir ou renforcer leur influence sur les individus, considérés soit comme des consommateurs soit comme des administrés ou des électeurs. Il n'y a pas de mal à cela, dans la mesure où dans nos sociétés la vie économique et la vie politique reposent en grande partie sur des entreprises commerciales ou des administrations publiques. Les rares citoyens qui voudraient cependant utiliser les ressources des technologies numériques pour de doter de nouveaux espaces de communication et de création devraient se persuader que ceci ne pourra venir que de leurs propres efforts.Il y a plus cependant à prendre en considération.

Les sociétés occidentales, en Amérique mais de plus en plus en Europe, ont découvert ces dernières années ce qui était une réalité depuis les origines de l'informatique, mais qu'elles ne voulaient pas ou ne pouvaient pas voir: les réseaux numériques sont de bout en bout les produits de technologies et d'entreprises développées aux Etats-Unis et restées très largement sous le contrôle du pouvoir scientifique, économique et culturel de ce qu'il faut bien appeler le lobby militaro-industriel américain. Les autres puissances mondiales, peu averties dans des domaines où la Silicon Valley (si l'on peut employer ce terme imagé) s'était donné un monopole historique, s'efforcent actuellement de rattraper leur retard. C'est le cas notamment de la Russie et surtout de la Chine. Mais elles sont encore loin du compte. Quant à l'Europe, elle dépend très largement des Etats-Unis, dont elle est en ce cas comme en d'autres une sorte de satellite.

Or le grand écho qu'ont pris les révélations faites par Edward Snowden, dans l'affaire initialement qualifiée de PRISM/NSA/Snowden tient précisément â la découverte du pouvoir donné à l'Empire américain par l'espionnage tous azimuts découlant de l'utilisation que nous faisons de l'internet, du téléphone et autres technologies numériques. Il s'agit d'un pouvoir si complet et si imparable, du moins à ce jour, que le terme de goulag électronique paraît parfaitement adapté. De plus ce pouvoir, même s'il résulte de grandes évolutions technologiques et géo-stratégiques paraissant dépasser la responsabilité d'individus déterminés, fussent-elles celles des POTUS (Presidents of the Unites States) et de leur entourage, relève cependant dans le cas de la NSA et des autres agences de renseignement, de volontés humaines bien identifées. L'actuel POTUS, précisément, ne s'en cache pas. Au contraire, il s'en félicite.

Si nous admettons ces prémisses, nous pouvons revenir sur les grands traits du goulag électronique en question.

Un goulag attrayant mais d'autant plus enfermant

L'actualité récente nous permet de préciser l'analyse 2). Le 8 aout 2013, le propriétaire du site américain Lavabit annonçait qu'il cessait son activité sous les pressions de l'administration fédérale. Il offrait en effet jusque là des services se voulant sécurisés à des centaines de milliers d'utilisateurs recherchant la possibilité d'échapper à l'inquisition rendue possible par la transparence de l'internet. Or la NSA lui avait imposé de lui livrer des informations confidentielles concernant certains de ses clients, ce qu'il avait refusé de faire. Peu après, il était suivi dans ce refus par le site Silent Circle qui offrait des services analogues. D'autres services en ligne de même nature ont probablement fait le même choix. Le Guardian qui dès le début de la crise NSA/Snowden s'était fait le porte parole de ce dernier donne régulièrement des précisions sur l'évolution des rapports de force entre la NSA et les professionnels du web.

L'intransigeance de la NSA ne devrait pas surprendre en France où la législation interdit depuis longtemps l'usage de systèmes de communications cryptées susceptibles d'échapper aux investigations des services de police ou de contre-espionnage. Ceci ne scandalise que peu de gens dans la mesure où l'on présume généralement que ce seraient les activités criminelles qui feraient principalement appel à de telles facilités.

Il faut cependant tirer quelques conclusions de cet événement concernant la pertinence du concept de goulag électronique appliqué au monde des réseaux numériques actuels. Que peut-on en dire?

1. Il s'agit d'abord d'un univers de plus en plus global et inévitable, auquel celui qui veut s'exprimer et communiquer peut de moins en moins échapper – ceci d'ailleurs tout autant dans les sociétés peu développées que dans les sociétés avancées. Autrement dit l'Internet est inévitable et à travers lui sont inévitables les divers contrôles qu'il permet. Il reste évidemment possible à qui veut rester discret de faire appel à la parole, au geste et à l'écrit sous leurs formes traditionnelles, à condition d'éviter tout support susceptible d'être ensuite numérisé et diffusée. Autant dire que la moindre activité ayant une portée un tant soit peu sociale pourra être ou sera enregistrée, mémorisée et le cas échéant, commentée, manipulée voire déformée par des tiers, bien ou mal intentionnés.

Les contrôles sont d'autant plus inévitables que les technologies utilisées s'automatisent de plus en plus, permettant de traiter des flots de meta-données et de données par milliards à la minute. Les humains seront de moins en moins nécessaires, tant dans la définition des cibles que dans l'application des sanctions. 3). Nous avons ici depuis longtemps signalé cette évolution inévitable.

2. Or cet univers n'est pas innocent. Il est aux mains, plus ou moins complétement, de pouvoirs se voulant totalitaires, c'est-à-dire cherchant à connaître, contrôler et le cas échéant faire disparaître des pouvoirs plus faibles s'efforçant d'échapper à leur emprise. Ceci n'a rien en soi de scandaleux. Il s'agit d'une loi générale s'exerçant depuis l'origine de la vie au sein de la compétition entre systèmes biologiques. Un organisme, une espèce, un ensemble de solutions vitales qui ne peuvent pas s'imposer comme totalitaires sont menacés de disparition, au moins dans leur niche vitale. Leur premier réflexe est donc d'éliminer ou tout au moins de contrôler leurs concurrents.

Les réseaux numériques subissent, comme toutes les constructions sociétales, l'influence des systèmes de pouvoirs plus généraux qui dominent les sociétés dans leur ensemble. Parmi ceux-ci, on distingue classiquement les pouvoirs politiques, les pouvoirs économiques et les pouvoirs médiatiques. Ces systèmes de pouvoirs sont personnifiés par des couches sociales ou des individus relevant de ce que l'on nomme les élites ou les oligarchies. Même si leurs intérêts propres divergent éventuellement selon les lieux et les périodes, ces élites et oligarchies se retrouvent généralement unies au niveau global pour défendre leur domination. On estime très sommairement qu'elles représentent environ 1% de la population mondiale, s'opposant à 99% de personnes ou d'intérêts n'ayant pas pour diverses raisons la capacité de dominer. Les Etats et leurs administrations sont généralement, même dans les sociétés démocratiques, au service des minorités dominantes, sinon leur émanation directe.

3. La description ci-dessus convient parfaitement pour désigner ce qu'il est devenu courant dans le langage politique engagé d'appeler le Système, avec un S majuscule. On dénonce le Système, on s'engage dans des actions anti-Système...Certaines personnes se demandent à quoi correspond exactement ce Système. Elles ne reçoivent pas toujours des réponses précises. Pour nous, les réponses sont sans ambiguïté. Elles correspondent à ce que nous venons d'évoquer, la domination de 1% d'oligarchies et d'activités associées s'imposant au reste des population. On remarquera que le Système, dans cette acception, n'est pas lié seulement au système capitaliste, ou au système de l'américanisme. Il s'agit d'une structure absolument générale, identifiable sous des formes très voisines dans tous les régimes politiques et dans toutes les parties du monde. Plus généralement, nous y avons fait allusion dans d'autres articles, il s'agit de formes de pouvoir émergeant spontanément de la compétition darwinienne entre systèmes biologiques.

Ceci veut-il dire que rien ne pourra jamais modifier cette inégalité fondamentale? Les combats pour l'égalité et une plus grande démocratie sont-ils d'avance voués à l'échec? Disons que des formes souvent différentes de répartition des pouvoirs se rencontrent nécessairement. Certaines d'entre elles peuvent laisser une plus grande place aux responsabilités de la périphérie ou de la base. Ce sont sans doute celles-là qu'il conviendra d'encourager. Mais d'une façon générale, des structures parfaitement égalitaires ne semblent pas envisageables. Elles signifieraient la fin de toute évolution, une sorte de mort cérébrale. Si bien d'ailleurs qu'elles ne sont jamais apparues spontanément.

Ajoutons que les grands systèmes de pouvoirs identifiables aujourd'hui au sein des réseaux numériques correspondent à ceux qui dominent la sphère géopolitique dans son ensemble, tout au moins dans les domaines technologiques et scientifiques. Les Etats-Unis et le cortège des pays qui sont sous leur influence pèsent du poids le plus lourd. La Russie est en train de reprendre une certaine influence. La Chine constitue une force montante. Mais il est encore difficile de mesurer son poids actuel.

4. Les activités qui sont identifiables au sein des réseaux numériques, qu'elles proviennent des agents dominants ou des dominés, se partagent entre activités licites et activités illicites ou criminelles. On retrouve là encore un trait général s'appliquant à l'ensemble des sociétés suffisamment organisées pour se doter d'une règle de droit et des moyens administratifs et judiciaires de la faire appliquer. Qui dit règles de droit ou contraintes d'ordre général dit aussi tentatives réussies ou non pour y échapper. Certes, sauf dans les pays pénétrés en profondeur par des mafias, les activités licites sont les plus nombreuses. Mais il suffit de quelques acteurs se livrant à des activités illicites ou criminelles pour pervertir l'ensemble. D'où le consensus social s'exerçant à l'égard des institutions et personnes visant à identifier et empêcher de s'exercer les activités illicites.

Ceci d'autant plus que l'Internet tolère, sinon encourage l'anonymat. Derrière cet anonymat prolifère ce que l'on nomme de plus en plus une poubelle, c'est-à-dire une abondance de propos malveillants. L'opinion considère que les contraintes de police et de contrôle sont le prix à payer pour le maintien d'un minimum d'ordre public sur le web. Cette tolérance peut laisser le champ libre à divers abus de la part des autorités de contrôle. Mais ces abus restent, tout au moins pour le moment, très peu visibles. La plus grande partie des utilisateurs ne s'estiment donc pas - tout au moins pour le moment - concernés.

5. Il résulte de tout ce qui précède que les entreprises ou individus exerçant leurs activités au sein des réseaux numériques sont de facto obligés de se conformer aux lois et règlements mis en place par les pouvoirs dominants, non seulement pour prévenir et combattre les activités illicites, mais plus généralement pour assurer leur maîtrise sur l'univers numérique. Ceux qui veulent échapper aux contraintes ainsi définies par les pouvoirs dominants, qu'elles prennent une forme légale ou spontanées, risquent en effet d'être considérés comme encourageant le crime et la fraude, sous leurs différentes formes. Au tribunal de l'opinion publique, ils n'échapperont pas à ce reproche. Seuls pourraient s'en affranchir des activistes masqués ou anonymes, dont l'influence restera marginale. Les activistes seront en effet obligés à un jeu de chat et de la souris dont ils ne sortiront pas vainqueurs. Malgré l'anonymat prétendu offert par les réseaux numériques, les moyens de contrainte dont disposent les Etats et leurs administrations s'imposeront toujours. Il faudrait un effondrement social global, y compris au niveau des forces de sécurité et de défense, pour que ces moyens de contrainte perdent de leur influence.

6. Le goulag numérique ainsi décrit serait-il si oppressant qu'il serait progressivement rejeté par les intérêts et individus dominés sur lesquels il s'exerce? Pas du tout, car il s'agit en fait de ce que l'on pourrait nommer un goulag attrayant. S'il enferme étroitement les acteurs, il leur offre aussi des compensations. La constatation a été souvent faite à l'égard de systèmes de contrôle des comportements s'exerçant à travers la publicité commerciale et la télévision. La plupart des citoyens sont près à « vendre sinon leur âme, du moins leur sens critique et leur droit à l'autonomie, à condition de bénéficier d'une promotion publicitaire ou de quelques minutes d'antenne.

Il en est de même en ce qui concerne le rapport des individus avec les réseaux dits sociaux, vivant de la marchandisation des données personnelles. La plupart des gens sont près à confier à ces réseaux des informations confidentielles les concernant, fussent-elles gênantes, pour le plaisir d'être identifiés plus ou moins largement par le public. Ainsi espèrent-ils sortir de l'anonymat, qui est la pire des malédictions dans un monde où tout le monde est censé communiquer avec tout le monde. On objectera que beaucoup de ceux se dévoilant ainsi restent suffisamment prudents pour ne pas livrer de vrais secrets pouvant les mettre en danger. Mais ce n'est pas le cas quand il s'agit de personnalités faibles ou d'enfants., cibles précisément des activités potentiellement criminelles.

7. La description du goulag numérique proposée ici ne peut évidemment être considérée comme décrivant de façon exhaustive la diversité des situations qui se rencontrent au sein des réseaux numériques. Il s'agit seulement d'un schéma très général comportant des exceptions. On trouve dans la réalité quotidienne de nombreux cas montrant que des acteurs particuliers échappent momentanément ou localement à la domination et au contrôle que tentent d'imposer les pouvoirs dominants.

Ceci fut illustré récemment par la suite des évènements survenus lors de la crise NSA/Snowden. D'une part les grands acteurs du web ont fini par s'inquiéter de l'inquiétude et la désaffection d'un nombre grandissant de leurs clients, de plus en pls gênés par les intrusions croissantes non seulement des pouvoirs de police mais des services marketing des entreprises. Concernant le pouvoir fédéral américain, les acteurs du web interviennent actuellement auprès de Barack Obama pour faire alléger les contrôles qu'exercent sur leurs fichiers les différentes agences de renseignement, agissant pour leur compte propre ou à la demande des administrations chargées de l'application des différentes réglementations en vigueur: fiscalité, douanes, environnement, etc.

D'autre part, comme nous l'avons vu, soit aux Etats-Unis mêmes, soit dans de nombreux autres pays, de nouvelles entreprises offrant la possibilité d'échapper non seulement à l'espionnage et au contrôle mais à une publicité devenue oppressante ne cessent de se créer. Leur succès reste limité vu la répression qu'elles suscitent, mais elles exercent cependant un contre-pouvoir non négligeable. L'enfermement imposé par le goulag numérique global reste cependant son caractère dominant.

Une évolution systémique

Nous pouvons évoquer une dernière question, souvent posée par les personnes qui découvrent les problèmes évoqués ici: existe-t-il au sein du goulag numérique des individus ou groupes d'individus clairement identifiables qui organiseraient en dernier ressort les dominations ainsi mises en place. Lorsqu'il s'agissait du goulag soviétique sous ses formes les plus arbitraires, on pouvait dans l'ensemble identifier les « organes », notamment au sein du parti, qui mettaient en oeuvre ce goulag, décidaient qui devaient y être enfermé, et ce que serait leur sort. Les conspirationnistes, pour qui tous les éléments négatifs de nos sociétés résultent de complots organisés, répondront que la même situation prévaut concernant ce que nous avons évoqué ici sous le terme de goulag électronique. Il devrait selon eux être possible d'identifier les entreprises et au sein de celles-ci les responsables organisant la domination des grandes forces s'exprimant à travers les réseaux numériques.

Il serait naïf de prétendre que ce n'est pas le cas, mais il serait tout aussi naïf de ne pas admettre que les phénomènes de l'ampleur évoquée ici ne dépendent pas seulement d'initiatives personnelles identifiables. Il s'agit de grands mouvements sociétaux affectant le monde moderne dans son ensemble. Certains individus ou intérêts y sont plus actifs que d'autres, mais ils ne peuvent à eux seuls être tenus responsables de la totalité des phénomènes.

C'est à ce stade du raisonnement qu'il est intéressant d'évoquer à nouveau notre concept de système anthropotechnique, présenté dans notre essai "Le paradoxe du Sapiens". Ce concept s'applique parfaitement à l'analyse qui précède. Les grands acteurs de l'évolution en cours ne sont pas seulement des groupes humains. Mais il ne s'agit pas non plus de systèmes technologiques autonomes. Il s'agit de la conjonction de groupes humains dont l'analyse relève de l'anthropologie ou de la politique, associés en symbioses étroites avec des promoteurs de systèmes technologiques dépendant de contraintes relevant de l'analyse scientifique et industrielle. Le tout prend des formes et configurations très variables, selon les pays, les époques et les domaines. L'évolution darwinienne globale résultant de la compétition des différentes entités anthropotechniques ainsi formées s'impose au monde de la même façon que s'était imposé jusqu'à présent l'évolution biologique et sociétale.

Ajoutons que prendre toute la mesure de phénomènes de cette ampleur est quasiment impossible aux observateurs que nous sommes, puisque nous sommes inclus dans les mécanismes que nous voudrions décrire objectivement, et donc incapables de se donner le recul théoriquement nécessaire.

Notes

1) Cf notre article "Comment définir le Système et comment lutter contre lui ?" http://www.europesolidaire.eu/article.php?article_id=1148&r_id=

2) Fermeture de Lavabit. Voir The Guardian
http://www.theguardian.com/technology/2013/aug/08/lavabit-email-shut-down-edward-snowden

3) Voir une déclaration du General Keith Alexander, patron de la NSA NSA head: Replace would-be Snowdens with computers to stop future leaks http://rt.com/usa/nsa-snowden-former-job-future-257/

Repost 0
6 juillet 2013 6 06 /07 /juillet /2013 16:13


Viktor Mayer-Schonberger et Kenneth Niel Cukier (mars 2013)
Discussion par Jean-Paul Baquiast 04/07/2013


Faut-il traduire en français le terme de Big Data? Il y a quelques mois, les lecteurs francophones, surtout quand ils connaissaient peu les technologies de l'information, l'auraient demandé. Aujourd'hui, ce n'est plus guère utile, du fait notamment que les francophones ne peuvent plus désormais échapper, en ce domaine comme en d'autres, à l'inondation des concepts forgés par la société américaine. Le moindre article évoque dorénavant les Big Data, avec plus ou moins de pertinence. Il s'agit là, comme en de nombreux autres domaines, de la domination que les Américains ont su prendre depuis des années sur des technologies devenues vitales, du fait de la passivité et de l'incompétence de ceux qui se présentent comme représentant nos intérêts.

Traduisons cependant Big Data par « masses de données ». Les travaux en France même, portant sur ce concept, ne manquent pas, comme en témoigne la page consacrée récemment à ce sujet par l'IRIT (Institut de recherche en informatique de Toulouse) http://www.irit.fr/-Masses-de-donnees-et-calcul,677). Ces masses de données représentent par exemple les milliards ou dizaines de milliards (ne comptons pas) de données générés en un seul jour par tous ceux qui utilisent les réseaux numériques et capteurs dont désormais la planète est truffée, téléphone, internet, objets « intelligents » multiples.

Mais qu'est-ce qu'une donnée? Les puristes voudront distinguer la donnée de l'information. On peut en effet considérer que la donnée est un élément brut, qui ne prend de valeur que pour les êtres (les cerveaux) capables de lui attribuer une signification au regard de leurs efforts pour survivre dans le monde. Si j'entends le cri d'alarme d'une proie à l'arrivée d'un prédateur, je pourrai soit ranger ce cri parmi les innombrables bruits du monde que j'enregistre sans leur prêter d'intérêt (dans ce cas ce ne sera pas une donnée pour moi), soit le recevoir comme porteur d'une signification, autrement dit d'une information précise, qu'à l'occasion je pourrai utiliser à mon tour pour me mettre à l'abri.

Tout organisme laisse partout dans la nature des traces innombrables de ses activités. Elles résultent de son interaction avec le milieu comme avec les autres organismes. L'écrasante majorité de ces traces ne sont pas pas observées, et moins encore dotées de signification. Une plage à marée basse est pleine de marques de pas. Leur étude attentive pourrait donner lieu à des hypothèses intéressantes concernant les auteur des pas et les activités auxquelles ceux-ci se sont livrés. Ces hypothèses pourraient par exemple intéresser divers sociologues s'attachant à préciser les activités des humains au contact du littoral. Mais elles sont trop nombreuses pour être enregistrées et, à plus forte raison, analysées. D'autres priorités mobilisent les observateurs éventuelles. Ces traces ne sont donc ni des données ni des informations. Elles ne se distinguent pas à cet égard des innombrables grains de sable constituant la plage, dont personne l'entreprend l'étude alors que celle-ci pourrait être riche en connaissances géologiques, océanologiques, cosmologiques.

Les traces de pas sur la plage ne deviendront des données, dans le vocabulaire des Big Data, que si elles sont enregistrées sur un support numérique permettant leur mémorisation et leur étude: si par exemple certaines de ces traces, étant considérées par la gendarmerie comme appartenant à l'auteur recherché d'un délit, étaient photographiées et conservées dans un fichier de police multimedia. On pourrait dans ce cas dire qu'elles prennent le statut de données numériques, au regard tout au moins de ceux qui, comme ces gendarmes, pourraient y attacher une importance scientifique.

Mais ce ne seront que des données numériques élémentaires, porteuses d'un très petit nombre d'informations significatives et n'intéressant donc qu'un très petit nombre de personnes. Il ne s'agirait donc pas de Big Data. Si par contre elles se trouvaient recoupées avec d'autres données elles-aussi numérisées, messages téléphoniques ou mels de personnes indiquant s'être promenées sur cette plage à cette heure, avis fournis par la météo concernant le temps qu'il faisait, relevés de circulation routière dans les rues adjacentes, extraits de comptabilité des hôtels, restaurants, vendeurs d'ice-cream pour la zone, elles pourraient fournir à d'éventuels personnes s'intéressant à la fréquentation touristique dans la commune concernée, comme à d'autres questions voisines, de nombreuses informations utiles. Les traces de pas, dans cette hypothèses, susceptibles d'être enrichies par toutes les autres données, entreraient dans le processus décrit par Viktor Mayer-Schonberger et Kenneth Niel Cukier par le terme de « datafication » ou transformation en données significatives.

Changer de méthode

De quoi exactement seraient-elles significatives? Les auteurs de Big Data insistent à juste titre sur le fait que ces données différeraient radicalement de celles résultant d'une observation scientifique classique du monde. Il ne s'agirait plus de rechercher les « causes » d'un phénomène, mais « comment » ce phénomène se manifeste à nous. Or pour passer du Pourquoi au Comment, il faut changer de méthode.

Si je voulais observer et comprendre scientifiquement une partie quelconque du monde, par exemple la marque de pas laissée par un oiseau inconnu sur la plage, j'utiliserais la méthode hypothético-déductive mise au point depuis plusieurs siècles. Je décrirais la trace aussi exactement que possible, je rapprocherais cette description de celles fournies par les archives scientifiques disponibles, je ferais l'hypothèse qu'il s'agit des pas laissés par telle espèce particulière d'oiseau et je m'efforcerais de vérifier cette hypothèse en la confrontant à des données expérimentales déjà disponibles concernant les faits et gestes des individus appartenant à l'espèce envisagée. Si je ne trouvais aucune information pouvant confirmer mes hypothèses, ou bien je considérerais que je me suis trompé, ou bien j'écrirai un article pour une revue scientifique annonçant la découverte d'une nouvelle espèce d'oiseau, en invitant mes pairs à discuter le contenu de cette publication.

On voit que dans cette démarche, si la donnée primaire (la trace du pas de l'oiseau) joue un rôle essentiel, c'est l'ensemble du processus scientifique décrit ci-dessus qui lui donne valeur d'information scientifique. A la limite, une seule donnée pourrait suffire à l'amorce du processus de connaissance. Je pourrais évidemment m'appuyer sur d'autres données de même nature pour conforter mon hypothèse, relatives par exemple à des traces de pas d 'oiseaux observées ailleurs ou mémorisées dans des archives, mais en aucun cas il ne s'agirait de données en masse.

Dans le processus d'élaboration de la connaissance décrit avec force détails et exemples par Viktor Mayer-Schonberger et Kenneth Niel Cukier , la démarche est différente. Elle ressemble un peu à celle adoptée dans les phases pré-scientifiques ou empiriques précédant la connaissance scientifique rigoureuse. Mettons-nous à la place d'un naturaliste perdu dans une forêt dense du début du 19e siècle. Pour commencer à mettre un peu d'ordre dans l'océan d'indices laissés par des myriades d'espèces, il procède d'abord à des classements de type statistiques: tant de traces de pas pouvant appartenir à des mammifères et tant de traces pouvant appartenir à des oiseaux. Il procède ensuite à des corrélations. Les marques de pas comportant des traces de griffes seront considérées comme appartenant à des animaux dangereux dont il faudra se méfier. Il s'éloignera a priori de ces animaux, même s'ils sont parfaitement inoffensifs.

Il est clair que dans une telle démarche le scientifique a besoin du plus grand nombre de données possible, afin de prendre du monde qu'il observe la vue la plus large. Dans un premier temps, par contre, il n'a pas besoin que les observations correspondantes soient très précises, du fait qu'il n'aurait pas le temps de les étudier une à une. De leurs côtés, les hypothèses de corrélation seront certes soumises à vérification expérimentale si la chose pouvait se faire à moindre coût. Cependant, si elles se révélaient à terme non fondées, elles auraient eu dans un premier temps un rôle essentiel, décrire le monde observé en catégories intéressant directement l'observateur – par exemple se méfier d'un animal encore inconnu pouvant se révéler dangereux.

Ce qui est par contre essentiel dans la démarche consistant à accumuler les plus grandes masses de données possibles est de disposer du plus grand nombre de capteurs possibles. Le naturaliste du 19e siècle perdu dans la forêt était à cet égard limité dans le temps et dans l'espace. Mais s'il avait disposé de caméras numériques portées par des drones, d'immenses bases de références accessibles par wifi (comme celles que Google envisage de mettre à la disposition des porteurs de Google glass), la forêt la plus dense n'aurait pas eu longtemps de secrets pour lui. Certes, il aurait pu faire encore des erreurs de diagnostic, décrivant un monde n'existant pas en réalité, éventuellement peuplé d'espèces jugées a priori dangereuses alors qu'elles seraient au contraire bénéfiques, mais dans l'ensemble son efficacité en temps que scientifique n'aurait pas été inférieure à celle du scientifique classique.

Le lecteur transposera facilement cette situation à celle découlant de l'observation d'une zone urbaine par des milliers de caméras de surveillance, drones et capteurs divers. Beaucoup d'alertes injustifiées seront lancées, à la suite d'incidents dans les logiciels de reconnaissance.

En fait, comme ne le disent pas assez Viktor Mayer-Schonberger et Kenneth Niel Cukier, les deux méthodes d'analyse du monde sont complémentaires et doivent être menées en parallèle. Si (en changeant d'échelle) j'observe le cosmos, j'ai besoin d'étudier avec la plus grande précision possible l'objet X431- copernicus situé dans la galaxie XYZ et parallèlement les pans entiers du ciel incluant cette galaxie et des milliards d'autres, étudiés ne fut-ce que sommairement par un grand nombre d'instruments différents.

Les observateurs et leurs secrets

Cependant, comme toujours lorsqu'il s'agit d'observer le monde aussi scientifiquement que possible, afin d'en tirer des hypothèses et lois susceptibles de le décrire, les données élémentaires, même numérisées, même en masse, ne suffisent pas. Il faut des observateurs, c'est-à-dire des cerveaux, qui décident de s'y intéresser. Ces observateurs doivent en conséquences être porteurs de projets pour lesquels ces données trouveront une signification. Les observateurs, leurs projets de connaissance scientifique, les conclusions tirées des données qu'ils ont sélectionnées, ne sont pas universels, mais relatifs. Il s'agit, pour reprendre les termes de Mioara Mugur Schaechter souvent citée dans nos articles, d'une méthode de conceptualisation relativisée, inspirée de l'approche du « réel » subatomique utilisée par la mécanique quantique. Dans tous les cas, il ne faudrait donc pas prétendre décrire des « réels » en soi, intangibles, qu'il s'agisse de faire appel à de grosses ou petites données, mais de réels résultant d'une interaction chaque fois spécifique entre des observateurs-acteurs, des instruments et un univers profond a priori inobservable constituant le tissu de la réalité dont nous sommes des éléments.

En fonction des circonstances de la lutte pour la survie que nous menons au sein de ce monde, nous serons conduits à choisir entre des représentations aussi rigoureuses que possible, inspirées de la méthode scientifique hypothético-déductive, ou de représentations nécessairement plus sommaires inspirées des méthodes statistico-probabilistes. En tant qu' Européens, nous n'avons aucune raison d'abandonner les premières, dans lesquelles nous avons excellé depuis le siècle des Lumières, au profit des secondes, dans lesquelles excellent aujourd'hui les Américains, armés des impressionnants moyens technologiques et politico-économiques numériques dont ils ont su se donner une maitrise quasi absolue. Nous devrions en fait être capables selon les circonstances et les besoins, de recourir aux unes comme aux autres.

Ajoutons un point essentiel. Viktor Mayer-Schonberger et Kenneth Niel Cukier n'ont pas voulu dans leur ouvrage donner la moindre information précise sur les méthodes statistico-probabilistes utilisées par les ordinateurs géants des gestionnaires de Big Data. Il s'agit en effet de l'arme fatale permettant de gagner ou perdre des milliards en Bourse, désorganiser les défenses d'un adversaire, inonder le monde d'hypothèses impossibles à vérifier. On en connaîtra plus sur ces sujets – difficiles - en lisant les ouvrages de Alain Cardon sur notre site que dans Big Data. Il est possible aussi de commencer à étudier un peu sérieusement les conférences et communications consacrées par des scientifiques désintéressés – il en reste quelques uns – au monde mystérieux et évolutifs de ce que l'on nomme désormais les « algorithmes » appliqués aux masses de données.


En savoir plus
* Slate.fr. Essayez de retrouver un terroriste caché dans des gigaoctets de métadonnées http://www.slate.fr/story/74433/metadonnees-terroriste-retrouver
* Alliance géostratégique. Sun Tzu a dit : « Tianhe-2 vaincra Titan » http://alliancegeostrategique.org/2013/07/01/sun-tzu-a-dit-tianhe-2-vaincra-titan/#more-16439
* Electrosphère. Le cauchemar kafkaïen de l'État cyberprétorien http://electrosphere.blogspot.fr/2013/06/le-cauchemar-kafkaien-de-letat.html

Repost 0
20 juin 2013 4 20 /06 /juin /2013 21:00

Jean-Paul Baquiast 20/06/2013

Il n'est pas excessif de penser que l'humanité vit depuis quelques mois une révolution technoscientifique qui sera aussi importante que celle de l'atome et de l'espace. Il s'agit de ce que l'on appelle désormais aux Etats-Unis la « science des données » (data science ou big data science). Comme nous l'avions indiqué, notamment dans un éditorial du 11 juin 2013, il s'agit d'un phénomène qui a pris toute son ampleur en Amérique et qui renforce considérablement le poids géopolitique de celle-ci dans le monde, en dépit d'une concurrence accrue des autres grands puissances. Il découle de la domination acquise par les Etats-Unis, depuis au moins une trentaine d'années, dans les technologies de l'information entendues au sens large, composants, ordinateurs, réseaux, logiciels – tous domaines rappelons-le où la France des années 70 aurait pu tenter de faire jeu égal avec l'Amérique, compte-tenu de ses compétences initiales, mais qu'elle a laissé péricliter par manque de vision géostratégique.

L'explosion toute récente de la science des données tient nous l'avons vu à l'alliance délibérée de deux forces considérables, l'une militaire et l'autre civile. Concernant le domaine militaire, il s'agit des centaines de milliards de dollars consacrés, sous l'égide de la National Security Agency (NSA), à la mise en place des centres de stockage des informations recueillies dans le monde entier selon les techniques dorénavant éprouvées de l'espionnage sous toutes ces formes, appliquées aux réseaux numériques et à ceux qui s'en servent. Le coût du stockage est désormais considéré comme inférieur aux profits résultant de la valorisation des données stockées. La consigne est donc dorénavant de tout mettre en mémoire. Ceci n'est pas rien, si l'on admet que 5 quintillions de bits sont ainsi produits en 2 jours par les utilisateurs des réseaux numériques.

Concernant le domaine civil, il s'agit des investissements également considérables consacrés à la mise en mémoire des données recueillies par les entreprises du web (Google, Facebook, Twitter, Skype...), toutes américaines, auprès des milliards d'utilisateurs qui leur confient gratuitement leurs données personnelles, en échange d'un certain nombre de services en ligne.

Stocker ces données ne serait pas très utiles si, dans le même temps, le gouvernement (NSA, CIA) et les entreprises du web n'avaient pas consacré des moyens également considérable à recruter des milliers d'ingénieurs et autres spécialistes de l'Internet (Quants). L'objet en est de transformer ces océans de données bruts en armes de pouvoir. Le terme de Quant désignait initialement les spécialistes en analyse quantitative utilisée en finance. Il s'agit de mathématiques financières, souvent dérivées de la physique et des probabilités, servant à mettre au point et utiliser des modèles permettant aux gestionnaires de fonds et autres spécialistes financiers de traiter deux problèmes essentiels: l'analyse des actifs et l'évolution des portefeuilles en fonction des risques et rentabilités observés ou prévus. On voit aisément qu'en dehors de la finance ces techniques sont particulièrement nécessaires au renseignement militaire et politique, pour analyser la pertinence des données recueillies et l'intérêt stratégique des cibles.

Les deux jambes de la grande marche en avant américaine

La force des Etats-Unis dans ce domaine tient à la puissance de ses universités et de ses entreprises high tech, dont la Silicon Valley a été longtemps une source quasi exclusive. La Silicon Valley a drainé toute la matière grise mondiale disponible en ces domaines, y compris en provenance de la Chine qui s'efforce actuellement de reprendre son indépendance. Des crédits paraissant aujourd'hui encore illimités (au regard des restrictions budgétaires frappant tous les autres secteurs), permettent de recruter et faire travailler ces experts. Le budget de la NSA, bien que confidentiel, est évalué à 8 ou 10 milliards de dollars par an. Quant aux profits perçus par les entreprises privées du web, et tout de suite réinvestis, ils sont au moins équivalents.

Ainsi s'est instauré un va-et-vient permanent entre la NSA et les entreprises américaines du web. Ce va-et vient concerne autant l'encadrement supérieur que les équipes techniques. Les sociétés ont recruté des directeurs de la NSA ou de la CIA, tandis que se faisait en même temps le mouvement inverse. Il s'est construit de la sorte en quelques années, voire en quelques mois, un potentiel humain irremplaçable, militaire et civil. Aucune autre puissance au monde n'a bénéficié de moyens aussi convergents pour se doter d'une force de frappe.

Ceci ne veut pas dire que tous ces brillants spécialistes, souvent eux-mêmes recrutés au sein des communautés de hackers, adhérent sans objections à des politiques de mise en tutelle du reste de l'humanité. Ils manifestent de temps à autres quelques réserves, concernant notamment concernant les dangers d'un espionnage généralisé, pouvant éventuellement se retourner contre eux et leurs convictions citoyennes. La découverte récente du programme PRISM, éclairée par les révélations de Edward Snowden, a suscité quelques états d'âme.

Mais Snowden n'a pas fait d'émules à ce jour. Dans l'ensemble la logique globale du système l'emporte, d'autant plus qu'un sentiment nationaliste toujours fort, doublé d'un mépris certain pour le reste du monde, continue à inspirer la toute jeune élite ainsi constituée. La coopération entre la défense et les compagnies du web, bien qu'officiellement contenue dans le cadre de mandats judiciaires explicites, se fait en fait sans difficultés, tant sur le plan des échanges scientifiques que concernant la fourniture de données privées.

C'est la construction progressive de cette nouvelle science du data mining et des données qui motive désormais tous ces chercheurs. Toute nouvelle science génère de nouveaux enthousiasmes, comme ce fut le cas il y a quelques décennies dans le nucléaire et le spatial. La science des données apparaît ainsi à la fois comme source de profits abondants et source de connaissances quasi-illimitées sur le monde. Les chercheurs semblent éprouver une foi sans faille en la validité des résultats de leur pratique, même lorsqu'elle s'étend désormais à des thèmes aux bases théoriques encore incertaines, comme le diagnostic génétique appliqué en médecine, en éducation, en criminologie, en sports et dans bien d'autres domaines sociaux.

Ainsi en médecine , les généticiens adeptes de la nouvelle science des données espèrent pouvoir préciser par des faits d'observations concrets les hypothèses encore largement théoriques faites actuellement concernant le rôle déterminant des gènes et séquences de gènes. Pour prendre un exemple un peu caricatural, on pourra vérifier telle hypothèse relative aux prédispositions génétiques de l'obésité ou du diabète chez un individu donné en compilant les données concernant les achats de celui-ci en produits gras ou sucrés. Inutile de préciser que de telles recherches risqueront de prouver a posteriori ce que l'on voulait a priori démontrer.

Quoiqu'il en soit, l'objectif sera d'abord de collationner avec des méthodes d'intelligence artificielle améliorée les milliards de données brut provenant des sources traditionnelles ou récentes, pages web, recherches effectués à partir des moteurs, signaux émis par de multiples capteurs ou objets intelligents, smartphones, GPS, caméras de surveillance. Il faudra ensuite en tirer de nouveaux faits d'observation et d'expérimentation à partir desquels seront formulées des hypothèses puis des lois. Un nouveau type de « réel », se superposant à celui aujourd'hui connu, deviendra alors matière à exploration théorique pour les nouveaux scientifiques. Chaque science ayant besoin de faits d'observation constamment renouvelés, ce sera sur des faits puisés dans les réseaux numériques que s'appuiera la nouvelle science des données.

Ajoutons qu'en termes de nouveaux financements et emplois, les perspectives sont considérables. 24 milliards de dollars seront consacrés à ce secteur en 2016, selon une estimation d'IDC. Le McKinsey Global Institute a pour sa part estimé que les Etats-Unis devront avoir besoin vers 2020 de 140 à 190.000 nouveaux experts en techniques analytiques. S'y ajouteront 1.500.000 spécialistes dotés de connaissances approfondies en gestion et exploitation des données. On conçoit que des pays menacés par un sous-emploi chronique considèrent toutes ces perspectives avec le plus grand intérêt. Il est peu probable que des appels à une prudence inspirée par l'éthique y trouvent beaucoup d'échos.

Repost 0
15 juin 2013 6 15 /06 /juin /2013 14:16

Technologies et politique. L'Europe en phase finale d'américanisation
Jean-Paul Baquiast 15/06/2013

Les évènements se précipitent. Peu d'européens en sont encore conscients. D'autant plus que pour s'en apercevoir il faut un minimum de culture stratégique, afin de déchiffrer des évènements qui autrement paraissent anodins.

Appelons américanisation de l'Europe le fait pour celle-ci d'acquérir le statut non d'un nième Etat de l'Union – ce qui peut conférer quelques droits constitutionnels et civiques - mais d'un Etat complètement subordonné, colonisé pour reprendre un ancien terme, sur le modèle des ex-colonies africaines de la France.

Cette américanisation est en cours depuis la seconde guerre mondiale, sinon la première. Ces guerres ont vu l'Europe, emportée par ses divisions internes, perdre une grande partie des éléments faisant son ancienne puissance. Ceci au profit des Américains. Face à l'URSS d'abord, face aux puissances émergentes d'Asie, principalement la Chine aujourd'hui, l'Amérique a su convaincre les européens qu'ils devaient lui confier leur défense, quitte à lui livrer en échange tout ce qui leur restait de souveraineté.

On peut avec un certain optimisme estimer qu'au cours du dernier demi-siècle et aujourd'hui encore, 100.000 européens au maximum ont toujours voulu refuser ce marché de dupes. Pour eux, l'Europe avait les moyens de se défendre et de se développer sans rien abandonner de ses atouts scientifiques, économiques, militaires. Sous le gaullisme en France, quelques 50.000 Français avaient accepté de tenir le pari. Aujourd'hui encore, ils sont peut-être 50.000 à tenter de résister, provenant de diverses horizons. L'Airbus A350 qui vient de réussir son premier vol à Toulouse est un des derniers descendants de ce rêve héroïque.

Mais ces réfractaires à l'américanisation, en France comme en Europe, se heurtent en Europe, dans chaque Etat comme au sein même de l'Union européenne, à des résistances formidables. Il y a d'abord l'inertie de centaines de millions de citoyens qui pensent que tout ira bien pour eux s'ils suivent les modes de vie et modèles américains, s'ils obéissent aux consignes implicites venues d'outre-atlantique. Mais il y a aussi ceux qui ont mis toutes leurs cartes dans la servilité à l'égard des intérêts américains, afin d'en être grassement récompensés. L'actuel président de la Commission européenne en est un bon exemple.

Comme ceux-là détiennent au sein de l'Union européenne à peu près tous les leviers de commande dont l'Amérique a bien voulu leur confier l'emploi, ils constituent une barrière infranchissable aux tentatives des 100.000 européens évoqués ci-dessus qui voudraient reprendre leur indépendance.

Une accélération brutale de l'américanisation

Tout ceci, diront les lecteurs, n'a rien de nouveau. Or ce n'est plus le cas. La conquête de l'Europe par le Big Brother américain s'accélère brutalement. Divers évènements ont mis en évidence ces derniers mois, sinon ces dernières semaines, trois mécanismes qui se conjuguent pour accélérer de façon exponentielle la domination de l'Amérique sur l'Europe.

Le premier mécanisme est d'ordre sociétal. Il découle de la numérisation continue de l'Europe, au sein notamment de l'Internet, qui en est la partie visible. L'Internet et plus généralement l'informatisation des outils et contenus de création et d'échange en découlant n'auraient que des avantages, y compris pour les Européens, si ceux-ci s'étaient donné des gouvernements et des entreprises capables de faire jeu égal avec la concurrence américaine. Or ce ne fut pas le cas. Non seulement l'informatique et les télécommunications ont été depuis les origines monopolisées par les américains, mais aussi les serveurs et entreprises du Net qui recueillent et mémorisent, dans leurs bases de données, l'ensemble de la production intellectuelle des Européens.

L'exemple le plus visible en est Google. Les Européens, par facilité, profitant de la dimension mondiale que Google a réussi à prendre, lui confient dorénavant le soin de recueillir, transporter, utiliser et vendre les valeurs ajoutées de tout ce qu'ils produisent, sans parler de leurs « données personnelles », c'est-à-dire de tout ce qui représente, non seulement la citoyenneté européenne, mais aussi la civilisation européenne.

Pour capter tout cela, Google et ses homologues américains ont mis en place des centres serveurs informatiques immenses, et développé les milliards d'instructions permettant de naviguer dans les données ainsi mises en mémoire. Ils sont de ce fait seuls à pouvoir réutiliser ce qui mérite de l'être dans les cerveaux européens et les produits de ceux-ci. Ce n'est rien, dira-t-on, nos cerveaux nous restent. Quelle erreur. Laisser Google et ses homologues dominer et progressivement diriger le contenu de nos cortex associatifs, de la partie noble de nos cerveaux, aboutit au pire des esclavage, esclavage soft, mais néanmoins esclavage.

Le deuxième mécanisme confirmant la soumission de l'Europe à l'Amérique est politique. Il était soupçonné depuis longtemps par quelques spécialistes, mais vient d'éclater avec ce que l'on a nommé le scandale PRISM-Snowden. Inutile d'y revenir ici. Non seulement nous acceptons de confier à Google et ses homologues, pour exploitation commerciale, nos données personnelles et le contenu de nos créations intellectuelles, mais nous acceptons de les livrer sans aucune protection aux services secrets américains. Ceux-ci s'en servent, disent-ils, pour lutter contre les supposés ennemis de l'Amérique. Ce faisant, disent-ils aussi, ils nous protègent contre des ennemis intérieurs ou extérieurs, car les ennemis de l'Amérique sont nos ennemis. Que ces ennemis existent ou pas n'est pas la question. La question aurait été de dire à nos amis américains que nous préférons nous protéger nous-mêmes de nos ennemis. Car pour le moment, qui nous protégera de nos amis américains, de leurs intrusions, des mécanismes politiques de surveillance et de contrôle qu'ils ont dorénavant la possibilité de déployer à notre égard. Quis custodes custodiat.

Les services secrets américains disposent pour ce faire, comme l'a révélé le scandale PRISM-Snowden, non seulement du contenu des immenses centres serveurs de la NSA, conçus pour mémoriser tout ce qui circule sur les réseaux numériques, non seulement des milliards de dollars de logiciels développés par des sociétés assermentées pour exploiter ces données, mais aussi de l'ensemble des contenus des serveurs commerciaux tels que Google, précité. La NSA et les autres agences de renseignement ont dorénavant une porte ouverte, un « open bar », une « back door » sur les contenus de ces serveurs. C'est-à-dire, répétons le, sur les contenus de nos cerveaux.

De plus, ces services secrets et, en arrière plan, l'ensemble des moyens militaires du ministère de la Défense américain, ont davantage de possibilités d'intervention que les équipes de Google et de ses homologues. Ils ont de fait sinon de droit, pouvoir de vie et de mort, par destruction physique ou annihilation virtuelle, à l'encontre de tous ceux qu'ils déclarent être des ennemis de l'Amérique, ennemis déclarés ou ennemis potentiels. Ecrivant ceci, je suppose que je dois en faire partie, comme vous qui me lisez, comme tous les Européens qui voudraient devenir indépendants de l'Amérique.

Ajoutons que les équipes du général Keith Alexander, directeur de la NSA et chef du Cyber Command du Pentagone, ne sont pas seules à pouvoir utiliser ces moyens. Elles sont doublées ou remplacées par des milliers de contractuels affrétés par l'US Army auprès de sociétés privées. Ces contractuels, bien qu'assermentés, peuvent se livrer en toute impunité à toutes sortes d'activités personnelles voir criminelles. Certains peuvent même, horresco reférens, trahir leur employeur pour motifs éthiques, au risque de leur vie, Comme Edwards Snowden, dont on est sans nouvelles à ce jour.

Un troisième mécanisme est à considérer, dans la perspective d'un futur proche. Il s'agit d'un élément capital, le cerveau global capable de conscience artificielle. Ceux qui connaissent le développement rapide des neurosciences et de l'intelligence artificielle savent que dans quelques années verront le jour un ou plusieurs cerveaux artificiels répartis sur l'ensemble des réseaux numérisés. Or Ray Kurzweil, qui est le meilleur technicien capable de développer de tels cerveaux, a rejoint comme nul n'en ignore les équipes de Google. Il a sans doute ce faisant la totale bénédiction de la NSA.

Mais, direz-vous, les Européens n'ont-ils pas l'intention d'étudier la mise en place pour leur compte d' un tel cerveau. Il s'agit du Human Brain Project européen, qui vient de recevoir la promesse d'un financement s'élevant à 1 milliard d'euros. Ce serait naïf de le croire. L'US Big Brother veille depuis le début de cette initiative. Le responsable en chef de ce projet est un Suisse, tout dévoué aux intérêts américains. De plus, IBM, qui avait déjà fourni le super-ordinateur nécessaire aux premiers pas du projet, vient d'ajouter de nouveaux moyens.

Je cite:
IBM Blue Gene/Q memory enhancements (14/06/2013)
The Blue Brain Projec
t (c'est-à-dire le projet suisse/IBM initial, repris dans le projet européen) has acquired a new IBM Blue Gene/Q supercomputer to be installed at CSCS in Lugano, Switzerland. This machine has four times the memory of the supercomputer used by the Blue Brain Project up to now...

Est-il besoin de traduire? Quant à ceux qui ignoreraient qui est IBM, je rappellerai que ce fut dès les origines du Plan calcul français l'adversaire principal contre lequel s'était battu Charles de Gaulle. Après avoir réussi à monter une entreprise européenne (Unidata, avec CII, Siemens, Philips) capable de tenir tête au géant, les promoteurs de celle-ci ont été trahis par un européen, un certain Giscard d'Estaing.

Ce sont d'autres Européens de même calibre, dotés d'une vision stratégique aussi pénétrante, qui se battent aujourd'hui pour que l'Europe s'engage dans les négociations avec les Etats-Unisen vue de réaliser un grand marché transatlantique. On apprend aujourd'hui 15 juin que la décision en ce sens vient d'être prise. Victoire cependant pour la France. Le culturel devrait en principe être exclu. Cela nous laissera toutes latitudes afin de financer des intermittents du spectacle qui distrairont les touristes américains et chinois quand ils nous feront la grâce de dépenser leurs devises en France. Ce sera tout ce qui nous restera à vendre.

Dans un second article, nous essaierons d'évaluer la façon dont la France pourrait ne pas être entièrement absorbée par le glissement tectonique qui s'accélère.

Repost 0
3 juin 2013 1 03 /06 /juin /2013 11:47

Jean-Paul Baquiast 03/06/2013

Nous écrivions le 3 mars 2013 « Google glass, un cauchemar de plus »

Le projet Google Glass est en passe de se concrétiser. Google compte proposer avant la fin de 2013 des lunettes interconnectées. Il ne s'agit pas de lunettes de vue, mais d'appareils donnant à l'utilisateur la possibilité de bénéficier de différents services "sous le casque", comme l'on dirait en aéronautique: GPS, accès aux bases d'informations concernant les objets et scènes observées, possibilité de filmer et mémoriser à tous moments les lieux et les personnes, sans évidemment leur demander leur accord.

Pour Google, il s'agit d'introduire la réalité augmentée dans la vie quotidienne. Ce serait aussi, on le devine, la possibilité de généraliser pratiquement sans limites l'accès aux informations et données que la firme collecte dans le monde entier, ainsi que les retombées commerciales qu'elle en tire.

Plusieurs questions restent posées, au- delà de l'enthousiasme de milliers de « geeks » plus ou moins mobilisés par Google pour faire sa publicité. La première et la plus importante concerne la protection de la vie privée. Chacun pourra filmer ce qu'il voudra sans autorisations. Cette objection est déjà faite à l'encontre des projets de drones à usage civil qui vont semble-t-il se multiplier, notamment aux Etats-Unis
D'autres questions intéressent la santé et la sécurité: effet des radiations émises par ces appareils au plus près du cerveau, perturbation de la vision et fatigue visuelle dues à un usage monoculaire, distractions imposées aux utilisateurs pouvant provoquer des accidents, etc.

Google répond qu'il prend très au sérieux ces diverses objections, et que les solutions utiles sont ou seront proposées. On notera cependant que plusieurs collectivités ou entreprises américaines ont décidé de prohiber l'usage des Google Glass dans leurs enceintes. Nous aimerions savoir pour notre part comment les différentes administrations en charge de ces questions envisagent en Europe, et a fortiori en France, l'attitude à adopter. La CNIL, déjà bien affaiblie, y compris par les représentants de l'Etat, aura-t-elle un mot à dire ?

Aujourd'hui (juin 2013) la société Google accélère comme prévu ses efforts pour généraliser l'usage des Google glass, dont elle fait la promotion à travers le site Glass (ou Glass Headset) http://www.google.com/glass/start/what-it-does/
Un nombre croissant d'applications (apps) sont proposées à partir des travaux de développeurs intéressés par le produit et les chiffres d'affaire qu'il pourrait générer.

Ceux-ci n'ont eu accès aux spécifications de Glass que très récemment. La 2e conférence mondiale des développeurs s'est tenu à San Francisco le 15 mai. Voir le site https://developers.google.com/events/io/sessions/332704837. Google les a fortement encouragés à mettre en place des applications destinées à un public aussi large que possible, sans trop s'embarrasser dans un premier temps de considérations relatives à la protection des libertés individuelles. Google nomme d'ailleurs ces développeurs des « hackers », autorisés par la compagnie à « piller » très largement les possibilités du produit, en suggérant sans restrictions de nouveaux usages.

Glass, rappelons-le, consiste en un prisme transparent de la taille d'un ongle positionné à l'angle droit du champ de vision du porteur de la lunette. Ce prisme est relié à un corps comportant un nombre impressionnant d'appareils complexes jusqu'à présent jamais mis simultanément à la disposition de l'utilisateur d'un appareil portable: caméra, capteurs des mouvements de l'oeil et de divers autres mouvements du corps, accéléromètre, gyroscope, compas. Il dispose de Wi-fi et peut être connecté à un smartphone par Bluetooth afin de bénéficier du positionnement GPS et de données externes accessibles par des connections 3G ou 4G. Les centrales de navigation des générations précédentes d'avions de combat ne disposaient pas d'un tel luxe de dispositifs.

Pour le moment les applications disponibles n'exploitent pas toutes ces possibilités. Elles se limitent à l'envoi d'emails et à la prise de photos par commande vocale. Elles permettent aussi de la même façon de consulter des titres de presse. Mais les développeurs ont l'intention de faire du Google Glass un accompagnement systématique des activités de l'utilisateur, en leur apportant des valeurs ajoutées multiples. C'est ainsi qu'un porteur du Glass observant des oiseaux pourra consulter en temps réel des bases de données universitaires destinées aux « Bird watchers », très répandus aux Etats-Unis. La localisation de l'utilisateur par son GPS permettra de lui donner accès aux seuls oiseaux susceptibles de se trouver sur le lieu de l'observation, plutôt que l'obliger à feuilleter les centaines de fiches d'un allas traditionnel. De plus il pourra lire ces données dans le prisme de la lunette sans cesser pour autant d'observer l'oiseau qui l'intéresse

De même, il devient possible pour un utilisateur d'échanger les photos qu'il prend avec des amis, tout en recevant en ligne leurs commentaires. Ceci n'est pas réalisable avec la caméra d'un téléphone portable, qui impose nécessairement des ruptures de support et des délais de réponse. Ces échanges en temps réel peuvent permettre de décider en commun de l'achat d'un produit offert par un magasin. Mais elles rendront possible aussi de multiplier les liens sociaux sur Facebook. Les « statuts » des titulaires de compte pourront être enrichis en permanence et en collaboration grâce à la reconnaissance vocale et l'échange de vidéos. On peut ajouter que la prise de photo pourra se faire discrètement. La commande vocale sera remplacée si besoin était par un simple clignement d'œil.

La reconnaissance des visages qui est également en cours de mise en place permettra à chacun de mieux situer les personnes rencontrées, en comparant leur image à des catalogues d'images préalablement mémorisées. En médecine d'urgence, il sera ainsi possible d'accéder au dossier médical d'un patient hors d'état de décliner son identité.

Ainsi, selon le propos d'un développeur: « Les utilisateurs de téléphones portables pensent grâce à ceux-ci être connectés au monde entier. Qu'ils essayent le Google Glass et ils verront la différence. Ils seront connectés à l'Internet mondial ». Sur ces bases, chacun est désormais encouragé à faire preuve d'imagination pour mettre en place des « applications tueuses » ou « killer apps », pouvant générer de gros chiffres d'affaires. Avis aux demandeurs d'emplois..

Google attire pour le moment l'attention sur son produit Glass, bénéficiant de son prestige et des bases de données immenses qu'il a pu mettre en mémoire et qu'il ne cesse d'augmenter. Mais son exemple sera inévitablement suivi par tous les industriels et développeurs proposant de nouveaux matériels portables: téléphones, tablettes, capteurs divers et variés. C'est le nouvel âge de ce que l'on nomme d'une façon bien gentille l' « ubiquitous computing » qui se met en place.

Il n'est pas nécessaire de faire un grand effort d'imagination pour envisager le nombre des usages illégaux voire criminels qui seront ainsi rendus possibles, au détriment des citoyens non avertis et en contravention directe avec les prescriptions des autorités chargées de la protection des libertés publiques. Mais, sans grand effort non plus, on peut imaginer les abus dont des services ou agences officielles, supposés lutter contre l'insécurité et le terrorisme, pourront de leur côté se rendre coupables.

Repost 0
30 mai 2013 4 30 /05 /mai /2013 20:36

Interview. Alain Cardon
par Jean-Paul Baquiast 30/05/2013

Cher Alain Cardon, vous venez de publier sur notre site Automates Intelligents votre dernier ouvrage Les systèmes de représentation et l'aptitude langagière http://www.admiroutes.asso.fr/larevue/2013/136/LivreACmai07.pdf
Nous vous en remercions.
Pour que les lecteurs en comprennent bien la portée, vous avez accepté de répondre à quelques questions. Les voici

Automates Intelligents : Comment définissez vous l'essentiel du problème que vous abordez dans ce livre,

Alain Cardon : Il s'agit d'une tentative très ambitieuse, outrepassant certainement mes possibilités, mais à laquelle je ne veux pas renoncer. L'objectif est de proposer des théories nouvelles pour approfondir notre conception du monde, en s'efforçant de dépasser ce qui existe déjà dans les différents domaines scientifiques. Ceci dans les trois phases d'un tel travail: la conception, avec des chercheurs créateurs, la réalisation avec des ingénieurs et des techniciens; et enfin l'utilisation.

Il y a très peu de création scientifique en France aujourd'hui. Les laboratoires qui étaient faits pour cela sont submergés par les développements. Les développeurs sont spécialisés dans des domaines technologiques, afin de produire des résultats commercialisables et permettre au laboratoire de continuer à exister en payant des personnels. Il s'agit d'un engagement dans la voie du sous-développement, dont la France n'a d'ailleurs pas le monopole.

Plus précisément, modéliser la conscience et développer des modèles constructibles générant intentionnellement des « idées » n’appartient à aucun domaine scientifique précis dans notre pays. C’est un travail marginal puisque les projets pluridisciplinaires n’existent pratiquement pas .

Automates Intelligents: Quelles sont vos idées sur le système psychique?

Alain Cardon : Le système psychique humain fonctionne en produisant des appréciations sensibles (venant des sens). Il en extraie des abstractions qui sont précisées et amplifiées par la manipulation interne du langage. Les langages sont des univers d’abstractions et de symbolisations. Celles-ci caractérisent le réel perceptible par l'intermédiaire de symboles langagiers fortement combinables.

Je pose qu’il existe une dualité du système psychique. Le système psychique sensible a généré dans le cerveau de certains organismes vivants un système producteur d’abstractions et d’aptitudes langagière. L’homme en bénéficie de manière forte, en ayant acquis un sous-système langagier puissant.

Ces deux sous-systèmes psychiques, sensible et langagier, disposent d'architectures typiquement virtuelles (du type dit numérique en informatique), utilisant le réseau neuronal comme support. Elles découlent essentiellement des flux de communications informationnelles produits par les communications dendritiques entre neurones. Dans mon modèle, l’architecture de ces deux sous-systèmes est une transposition informationnelle du modèle freudien, où j’ai remplacé la notion inadéquate d’énergie par celle de flux informationnel multi-échelles.

Celui-ci doit s’organiser en formes significatives constituées de formes plus simples
pour produire des ensembles spécifiques qui seront exactement les représentants de tous les mots et de toutes les émotions, autrement dit de tout ce qui est pensé.

Automates Intelligents : L'ambition est considérable.

Alain Cardon. Oui. Je dois donc utiliser une théorie des formes sur un substrat dynamique qui sera pour moi, dans l’artificiel informatique, l'ensemble des processus que j'ai nommés, comme vous le savez, des agents aspectuels. Mon modèle permettra de les contrôler à toutes les échelles.

Avec ses deux sous-systèmes, l’homme est fragile, ayant à équilibrer continuellement deux tendances : apprécier sensoriellement ou abstraired'une part et raisonner d'autre part. Il peut faire l’un ou l’autre. Dans le meilleur des cas, mais le moins simple, il peut les conjuguer. Cela nécessite un apprentissage fort, et cet apprentissage dépend du langage utilisé (quels mots dans quelle langue), de l’éducation (quelle type d’école dans sa société) et de la structure sociale (quel type de société). La validation de l’existence de ces deux sous-systèmes se fera en neurobiologie par l'observation, et en psychiatrie et psychanalyse, grâce aux cas pathologiques éclairant les causes de dysfonctionnements.

Il y a un rapport entre ce que produit l’évolution en matière de systèmes de systèmes de plus en plus complexes et ce que produit un système psychique en matière de formes représentatives. Ce rapport présente une certaine similitude entre les organisations produites dans le biologique et le psychique, à des échelles de temps totalement différentes. On pourrait en conclure que le système psychique humain représente (à ce jour) un maximum organisationnel réalisable au plan biologique, et donc un point fixe de l’évolution du vivant.

Automates Intelligents: Vos recherches visent à comprendre scientifiquement le fonctionnement psychique. Mais qu'entraînent-elles en ce qui concerne la compréhension de l'évolution biologique?

Alain Cardon: Les gènes exercent des fonctions de contrôle. En se coactivant (s'activant à plusieurs) ces fonctions arrivent à réguler la production d’une nouvelle cellule dans une direction qui n’est pas la copie de la cellule mère, mais qui est l’expression d’un contrôle qui dépend aussi du contexte de la cellule. Ceci est exprimé par le modèle de fonction calculable que je présente dans mon livre et qui se place au-dessus du modèle de Turing. Il s'agit de faire écrire de nouvelles fonctions par des anciennes et non pas produire une fonction qui ne bougera plus.

Les recherches doivent préciser les régulateurs organisationnels internes de contrôle dans des fonctions qui en définissent d’autres, ce que j’ai commencé à présenter dans le livre.

Les organismes sont composés d’organes qui sont coactifs à plusieurs échelles : proximité, environnement, domaine. Ici prend place la notion de membrane virtuelle d’organisation que je définis. Elle étend fortement la notion de membrane vue comme un composant physique ou biologique. L’évolution des organes des différents organismes se fait par l’action de certains régulateurs organisationnels qui précisent les transformations possibles : duplication, subordination,
opposition…

Ce sont des fonctions de régulation qui opèrent de manière algébrique sur des
domaines organisationnels représentés par un ou plusieurs organes en coactivités fortes. On peut définir avec précision les régulateurs organisationnels dans le cas des systèmes de représentation des organismes, en suivant la complexification des systèmes de systèmes Il s'agit d'une complexification qui étend les fonctionnalités par opportunisme,afin que les organismes dotés de cerveaux investissent tout l’espace disponible, l’espace physique et l’espace de tous les autres organismes, chaque organisme pluricellulaire vivant en utilisant d'autres organismes vivants.

Je pose donc qu’il y a une loi organisationnelle opportuniste de l’évolution que je précise en termes d'algorithmes. Elle opère sur l’état courant des organismes vivants disponibles. Il en résulte, ce qui ne surprendra personne, que le vivant évolue selon les opportunités et les contraintes contextuelles.

Automates Intelligents: Comment passez vous à la construction d'un système psychique artificiel?

Alain Cardon. Le modèle étant décrit, l’architecture précisée, il reste effectivement le problème de la construction d’un sous système psychique artificiel. Ce système n’a pas d’enfance où il apprendrait à devenir adulte, il est à créer d'emblée opérationnel, correspondant à un adulte performant. L’architecture précise
est donnée dans mes travaux. Il reste donc à définir le vécu artificiel, toute la mémoire événementielle et factuelle qui va permettre au système d’être opérationnel.

Ce système sera distribué, fait de multiples zones psychiques situées sur des noeuds de computation. Les zones seront communicantes pour produire de multiples représentations idéelles artificielles dont émergera des synthèses on-line destinées à commander d’innombrables effecteurs électroniques ou informatiques.

La réalisation de ce vécu artificiel pourrait aboutir à des systèmes prédateurs
réduits, limités et désastreux. Pour évier cela, il faudrait mettre en place un grand projet scientifique pluridisciplinaire contrôlé par les citoyens. Est-on capable aujourd’hui de réaliser un tel projet dans un tel cadre citoyen ? Je ne le pense pas. Aucune indication politique ne permet aujourd’hui de l'envisager, les politiques étant absolument muets sur le sujet.

Il reste donc à avertir les citoyens qu’ils peuvent s’attendre à subir prochainement un système méta qui les contrôlera et qu’ils ne pourront plus modifier, celui-ci gardant ses tendances fondamentales définies à la conception.

Automates Intelligents: Se dirige-t-on, comme certains le pensent, vers une société post-démocratique, composée malgré leurs multiples connexions en réseaux d’individus atomisés?

Alain Cardon. Je le crois. Cette société serait structurée pour permettre à d’innombrables groupes inutiles de diriger toutes les affaires à tous les niveaux, affaires qu’ils ne comprendraient d'ailleurs pas, ne sachant pas générer dans leurs cerveaux les représentations performantes qui le permettraient.

L’utilisation d’un certain type de système méta serait alors très claire : le contrôle des masses pour la régulation statistique de l’ensemble, laissant aux grands prédateurs le soin de faire leurs affaires. 1)

1) Note par Jean-Paul Baquiast. Le dernier ouvrage de Jaron Lanier, "Who owns the Future", dont nous rendons compte par ailleurs, évoque dans une certaine mesure cette perspectives, avec ce qu'il appelle les Siren Servers (Google, Facebook, Amazon et autres).
(http://www.admiroutes.asso.fr/larevue/2013/136/lanier.ht
m)

Repost 0
28 mai 2013 2 28 /05 /mai /2013 16:30

Je viens de publier ici, au format .pdf, sous license Creative Commons, un nouvel ouvrage de notre collègue et ami Alain Cardon. On verra que l'ambition de l'auteur dépasse désormais la réalisation des systèmes de conscience artificielle. Il entend modéliser les comportements de génération de langages dans tous les ordres du vivant, notamment les systèmes sociaux humains et, à un moindre niveau, les systèmes animaux.

Ce travail s'inscrit donc dans le programme ambitieux conduit aujourd'hui par un grand nombre de sciences: identifier l'existence de processus généraux pouvant expliquer, sur notre planète et pourquoi pas, sur des planètes offrant des conditions favorables analogues, l'apparition de la vie, des langages et des outils à base de langages. Jean-Paul Baquiast pour Automates Intelligents. 28/05/2013
--------------------------------------------------------------------------------------------------------------------------------------------

Les systèmes de représentation et l'aptitude langagière
Présentation de l'ouvrage
Alain Cardon, Professeur des Universités en Informatique
Mai 2013

Ce livre finalise mes recherches sur la conscience artificielle. Elles ont donné lieu à la publication de nombreux articles et ouvrages évoqués sur le site http://www.alaincardon.net/. Ces recherches se sont toujours appuyées sur une science, l’informatique. Celle-ci, que l‘on confond souvent avec les technologies et les produits marchands s‘en inspirant, concerne fondamentalement ce qu’il est possible de représenter par des calculs portant sur des nuées d’informations.

Pour moi, la grande question que pose l‘informatique est la suivante: peut-on modéliser la pensée telle que nous la générons dans nos cerveaux par un système artificiel qui produirait les mêmes résultats ?

J’ai répondu oui, et je développe des éléments de réponse dans ce dernier livre. Il m’a fallu d’abord comprendre l’architecture du système psychique. Je me suis appuyé dans ce but sur les travaux de Sigmund Freud, qui n’ont rien perdu de leur pertinence. J’ai transposé ses modèles fondés sur la notion d’énergie, ce qui était le concept disponible à son époque, en les appliquant à la génération de formes informationnelles, c’est-à-dire de formes constituées d’informations qui se coactivent.

Il s’agit d’une position strictement matérialiste qui considére le système psychique comme un espace de génération de formes informationnelles sous les contraintes d’une architecture particulière. Il est possible alors d’identifier un inconscient avec des pulsions et une mémoire organisationnelle, un préconscient et finalement un conscient qui éprouve des sensations et poursuit à partir d‘elles une quête incessante de production d’idées

Mais ce faisant j’ai rencontré deux questions inévitables: pourquoi l’homme communique-t-il à partir de langages formalisés ? Est-il le seul parmi tous les mammifères à avoir développé cette aptitude ?

Je propose deux éléments de réponse :

1 - Le système psychique humain est constitué de deux sous-systèmes aux architectures similaires et qui se coactivent continuellement, un sous-système psychique sensible et un sous-système apte à l’abstraction et au langage.

2 - Ce système psychique humain est le résultat d’une évolution des systèmes de représentation. Ceux-ci partent d’un système simplement réactif pour aboutir au système humain en utilisant la contrainte d’une loi organisationnelle : complexifier les systèmes faits de systèmes par copies, duplications, oppositions, déformations.

Je développe longuement ces deux thèses dans ce livre. J'obtiens deux conclusions :

1 - Il existe une loi organisationnelle opportuniste propre au vivant qui commande l’évolution des organismes lorsque le milieu physique le permet. Cette loi a permis d’aboutir, par une complexification opportune systématique, à un système psychique de représentation capable d’utiliser ses propres productions comme des éléments manipulables. Il crée en lui pour ce faire des symboles représentant des choses, des événements, des idées.

2 - Aussi puissant qu’il soit, le système psychique humain présente cependant une grande fragilité. Il est dual du fait de la coexistence des deux sous-systèmes évoqués ci-dessus, système sensible et système langagier. Pour que ce dernier puisse créer des idées, il doit abstraire, réduire tout ce qu’il voit à des éléments de langage et ce faisant se couper totalement de la nature. Il ne peut donc plus, contrairement aux animaux plus simples, se la représenter telle elle est. Aucune langue n’est neutre ni naturelle, elle est un produit social sur lequel il n’y a pas de maîtrise éthique. Elle permet donc de fuir dans l’imaginaire, les idéologies et dans les technologies qui peuvent prétendre les faire vivre.

Un dernier problème, très inquiétant, doit être mentionné. Dans notre civilisation où l’on utilise à tous les niveaux et partout la volonté de puissance, où l’on se bat pour gagner contre l’autre et contre tous les autres, le modèle de système psychique que j’ai développé est transposable dans l’artificiel. Le monde de l’informatique aujourd’hui est celui des processeurs en réseaux liés à d’innombrables composants électroniques, qui communiquent quand les utilisateurs le demandent mais aussi quant ils ne le demandent pas.

Nous voyons donc s’installer un système méta, qui génère des représentations et jugements portant sur les comportements des innombrables utilisateurs de petits systèmes informatiques locaux. Il évalue ce que font ces utilisateurs, le plus souvent pour mieux les contrôler. Ce système méta dispose dorénavant de pulsions artificielles, de tendances, de besoins, d’intentions.

Comment éviter une telle situation ? D’abord, comme je l’ai fait pour ma part, en m’abstenant de réaliser des développements informatiques nouveaux tant que des organisations citoyennes efficaces ne se sont pas mises en état de comprendre, discuter et au besoin réorienter ces développements. Il s’agit de mon message le plus important, celui d’un simple scientifique qui s’adresse à tous les citoyens pour que la science, grâce à eux, retrouve pleinement sa conscience.

(publié sous Licence Creative Commons)

Pour lire l'ouvrage, faire http://www.admiroutes.asso.fr/larevue/2013/136/livreACmai07.pdf

Repost 0

Articles Récents

Liens