Vers le site Automates Intelilgents
La Revue mensuelle n° 71
Robotique, vie artificielle, réalité virtuelle

Information, réflexion, discussion
logo admiroutes

Tous les numéros


Archives
(classement par rubriques)

Image animée
 Dans La Revue
 

Retour au sommaire

Automates Intelligents s'enrichit du logiciel Alexandria.
Double-cliquez sur chaque mot de cette page et s'afficheront alors définitions, synonymes et expressions constituées de ce mot. Une fenêtre déroulante permet aussi d'accéder à la définition du mot dans une autre langue (22 langues sont disponibles, dont le Japonais).

Article
Le Web n'est pas encore un super-cerveau

Jean Paul Baquiast
3 février 2006

Le système nerveux

La question de savoir si le Web n'est pas en train de devenir un super-cerveau, générant une super-intelligence, est posée (et résolue de façon globalement affirmative) par un article très stimulant de Kevin Kelly, publié par le réseau Kurzweil AI.
(voir http://www.kurzweilai.net/meme/frame.html?main=/articles/art0629.html
ainsi que sur Wired http://www.wired.com/wired/archive/13.08/tech.html
Nous nous proposons de la discuter ici. Notre réponse sera, comme l'indique le titre, plus prudente.

The planet-sized "Web" computer is already more complex than a human brain and has surpassed the 20-petahertz threshold for potential intelligence as calculated by Ray Kurzweil. In 10 years, it will be ubiquitous. So will superintelligence emerge on the Web, not a supercomputer?

Quel est l'argument de Kevin Kelly et de ceux qui raisonnent comme lui?

Le Web est devenu un superorganisme d'une nature et d'une taille encore jamais vues sur Terre à ce jour, du moins dans le domaine des systèmes créés par l'homme. D'ores et déjà il comprend plus de 1 milliard de correspondants potentiels, c'est-à-dire de machines capables d'émettre et de recevoir des messages : PC, téléphones portables, objets(1). Ceux-ci ont généré près de 50 milliards de pages. Dans 10 ans il connectera des milliards voire des dizaines de milliards de terminaux de toutes sortes et aura créé un nombre de pages et messages pouvant atteindre le milliard de milliard.

Derrière ces machines il y aura des utilisateurs, humains et automates. Dans une vision encore courante du Web, la grande majorité de ces utilisateurs s'informent, c'est-à-dire consomment passivement des informations créées par une petite minorité d'entre eux. Nous sommes en face d'un système à flux descendant, qui n'est pas très différent, hors sa taille, du système de création et de diffusion des contenus d'information caractérisant les médias traditionnels, y compris la presse et la littérature depuis des siècles. Mais dans la vision qui tend aujourd'hui à prévaloir, les utilisateurs produisent et diffusent des contenus en même temps qu'ils en consomment. Ils les produisent soit en retraitant directement des informations qu'ils ont prélevées sur le web (je lis un texte en ligne et cela me suggère des réactions, c'est-à-dire des idées originales que j'édite) soit même en créant des contenus de leur propre chef (je crée un site où je publie par exemple l'histoire de ma vie…). Autrement dit, les utilisateurs, sans cesser d'être consommateurs, deviennent aussi auteurs, en créant de l'information que d'autres consommeront. De ce fait, ils constituent un nouveau pouvoir, face aux anciens détenteurs de l'information et des savoirs, qui tentent mais en vain d'en conserver le monopole. On retrouve toutes ces questions dans les débats actuels sur les droits d'accès à la culture numérique(2).
Derrière ces constatations qui tendent à devenir banales, Kevin Kelly rappellent ce que nous devrions savoir. D'une part, toute démarche, de lecture ou d'écriture sur le Web, est mémorisée quelque part, sans limite de temps, sauf quand des serveurs disparaissent (et encore. Leurs données ont généralement été reprises ailleurs). Ceci signifie que se créent à chaque fois des liens nouveaux entre données jusqu'ici non reliées. Si je vais lire le contenu d'un site, je crée un lien entre mon adresse IP et celle de ce contenu. Si je fais davantage, en publiant un lien hypertexte sur ce site, je «durcis» le lien et le fait connaître, potentiellement, au monde entier. Le Web devient donc une gigantesque mémoire, qui, 24h sur 24, n'arrête jamais de travailler et de s'étendre. Nous avons vu que parmi ce que nous avons appelé des utilisateurs, se trouvent de plus en plus d'automates et d'objets. Je suis «tracé» par différents objets qui mémorisent les liens, physiques ou virtuels, que j'établis sans cesse dans ma vie sociale : ainsi je passe tel péage, je vais chez tel commerçant, etc. Ceci inquiète beaucoup de gens mais n'est qu'un aspect particulier de l'immense réseau de contenus mémorisés dans lesquels je m'inscris dès que je fais quelque chose.

On considère généralement, non sans raison et comme nous l'avons rappelé en introduction, que le Web est un immense réseau interconnectant physiquement (même si toutes les connections ne sont pas à tous moments activées) des centaines de millions de machines. Mais si l'on prend en considérations tous les liens qu'il a mémorisés entre pages et contenus de pages, on atteint les milliards de milliards d'objets virtuels. Nous employons le terme d'objets virtuels car ceux-ci sont très proches de ce que Jean-Pierre Changeux avait appelé des « objets mentaux » dans son livre fondateur, l'Homme neuronal. Les objets mentaux de J.P. Changeux sont contenus dans notre cerveau et matérialisés par les synapses plus ou moins durables s'étant établies entre neurones –notamment dans le cortex associatif - au long de notre vie. Nous allons revenir ci-dessous sur cette comparaison entre le Web et le cerveau, car c'est elle qui nous intéresse ici.

Ces données ne s'accumulent pas en désordre dans la mémoire collective du Web. Elles se distribuent spontanément ou sont volontairement classées par origines géographiques, linguistiques, fonctions assurées, etc. Mais d'une façon générale, une hiérarchie particulière apparaît, découlant de la fréquence de consultation. Il s'agit d'un système de sélection quasi-darwinien. Les sites et données les plus consultées sont présentés en tête des listes des moteurs, ce qui accroît la fréquence de leur consultation au détriment des données isolées. Cependant le système est chaotique. On constate que des données très consultées peuvent ne plus l'être et que des sources isolées peuvent brutalement s'étendre et conquérir momentanément une partie de la globosphère ou du Web (voir ci-dessous : le rôle des mèmes sur le web).

Comment qualifier l'assemblée ou collection des objets virtuels (ou synapses numériques) que nous venons d'évoquer, faits de liens mémorisés sur le Web ? On peut dire qu'ils représentent un modèle dynamique d'un monde plus général, celui où s'exerce l'activité des humains et de leurs machines. Ce modèle dynamique est un monde physique à lui seul, fait de ces réalités (physiques) que sont les informations et liens entre informations figurant dans les serveurs et dans les réseaux de connexions entre serveurs. Nous pouvons le qualifier, afin de le distinguer d'autres types de mondes créés par des interconnexions entre objets naturels (par exemple le monde des bactéries, souvent lui-même qualifié de "web bactérien") d'un monde numérique. Le monde numérique se construit sans cesse, du fait de l'interaction permanente des humains et de leurs machines avec un monde biologique et physique plus général. Nous nommerons ce dernier l'Univers, afin de ne pas le confondre avec le monde numérique qui le représente.

Le monde numérique est-il un reflet passif de l'Univers, comme peut l'être l'image d'un animal dans un miroir ? Non pas et pour plusieurs raisons. La première est que, dès qu'un utilisateur du Web, homme ou machine, introduit un nouveau lien, ce lien sera perçu et pris en compte par un autre utilisateur, qui modifiera en conséquence, d'une façon non prévisible mais indéniable, son propre comportement, c'est-à-dire son action sur l'Univers. C'est assez évident. Si je lis sur un site web que je dois réduire mes émissions de CO2, je m'efforcerai de le faire et j'agirai ainsi effectivement sur l'univers physique et biologique. Ceci tient au fait que les utilisateurs ne sont pas inactifs mais constituent des « agents pro-actifs », selon l'expression de l'Intelligence Artificielle. Ile le sont d'autant plus qu'ils sont dotés en propre, grâce à la possession d'un cerveau biologique et de contenus culturels accessibles à ces derniers, d'une aptitude à la création autonome (pour ne pas parler de conscience) que n'ont pas forcément les machines – du moins en leur état actuel.

Mais la proactivité des agents humains n'est pas seule créatrice de nouveaux liens ou objets virtuels. Lorsque les liens génèrent eux-mêmes, par leurs interactions, de nouveaux contenus et que ces contenus arrivent à influencer des utilisateurs, hommes ou machines, ces nouveaux objets modifieront de leur propre chef, par émergence, selon le terme consacré, le comportement des agents. Ils modifieront par conséquent les effets qu'exercent ces comportements sur la marche de l'Univers. Mais est-ce possible, sans interventions humaines ? Oui, du fait de l'activité de tous les automates qui dorénavant opèrent sur les données du Web afin de les recenser, les analyser, les résumer et les transformer. Si un moteur de recherche du type de celui proposé un temps par Microsoft rassemblait de lui-même toutes les traces que j'ai laissées ma vie durant sur le Web, dressait le portrait ou plutôt le profil de moi qui en découle, et communiquait ce profil - soit à moi soit à d'autres – il modifierait inévitablement les comportements de ceux ayant connaissance de ce profil et donc la façon dont ceux-ci interagiraient ultérieurement avec l'univers extérieur. Pour prendre un exemple sympathique, si un tel profil établi automatiquement montrait que je suis un esprit très créatif, je pourrais postuler un poste dans une entreprise de création où j'inventerais peut-être une machine géniale, capable de modifier durablement l'univers.

Plus généralement, le réseau des serveurs et pages interconnectés générera inévitablement ce que la mémétique désigne du terme de mèmes(3). Les mèmes sont des idées ou images qui se développent et se reproduisent spontanément, comme des virus, sur le mode de la sélection darwinienne, au sein des réseaux de communications animaux et humains. Dans une société classique, leur importance est fonction de la densité des échanges entre individus et groupes. Dans un système profondément câblé et interactif, elle a toutes les chances d'augmenter considérablement. C'est ainsi que les effets de mode, concernant des informations vraies ou fausses, sont particulièrement rapides à naître sur le Web et parfois à y prendre des dimensions mondiales.

Nous voyons donc se mettre en place une Méga-machine, incluant et transcendant l'activité des humains et de leurs petites machines. Cette Machine comptera désormais de plus en plus parmi les agents physiques et biologiques influant sur l'évolution de l'Univers, au moins à l'échelle de la Terre et de son environnement immédiat. Il faut ajouter un point très important : la Méga-machine n'est ni descriptible en totalité ni, évidemment prédictible, par aucun homme ou système que ce soit. Il s'agit donc pour reprendre le terme de Victor Hugo, d'une « force qui va » mais nul ne sait où elle va. Le seul argument qui rassurera les esprits craintifs est qu'elle dépend totalement de la technologie. Qu'une guerre nucléaire ou un cataclysme détruise les réseaux et les serveurs, la Machine s'effondrera…mais probablement avec elle toute société humaine un tant soit peu évoluée. Resteront les fanatiques religieux des premiers âges.

On objectera que la Machine ainsi décrite n'est qu'une extrapolation des systèmes de communication existant dans les sociétés humaines traditionnelles. Dans ces sociétés, même lorsque les échanges sont seulement langagiers, sans écrits, chaque individu est plus ou moins récepteur et émetteur de données. On connaît le rôle des « commères » dans les villages ruraux. Des effets de mode ou d'émergence imprévus peuvent aussi s'y faire sentir. La seule différence d'avec les sociétés modernes est la densité des informations reçues ou échangées par habitant et par unité de temps, ainsi que la faible étendue des connexions. Celles-ci ne dépassent que rarement les limites de la province et sont enfermées dans des isolats linguistiques et culturels entre lesquels n'existent pas d'outils de traduction. C'est il est vrai aussi un peu le cas sur le Web. Tout le monde n'y communique pas avec tout le monde et tout le monde n'a pas le temps de communiquer autant qu'il le voudrait. Mais au moins en ce qui concerne les mises en corrélation automatiques et l'ampleur des mémoires rendues disponibles, les échelles de grandeur sont sans comparaison. On obtient donc avec le Web de très grandes densités de créations et d'échanges, qui produisent probablement des changements qualitatifs et pas seulement quantitatifs, par lesquels les « infosphères » modernes se distinguent des infosphères primitives.

Ceci admis, le Web constitue-t-il véritablement un super-cerveau, créateur d'une super-intelligence ? Pour répondre à cette question capitale, il faut s'entendre sur ce que l'on entend par cerveau et intelligence, en prenant pour référence ce que nous connaissons de l'un et de l'autre dans l'état actuel des connaissances scientifiques.

Le cerveau et son intelligence

Il existe d'innombrables études relevant de la discipline des neurosciences, aujourd'hui, qui tentent de décrire l'organisation du cerveau et la façon dont celui-ci, chez les animaux supérieurs et l'homme, génère de l'intelligence, voire génère ce que l'on appelle encore, à tort ou à raison, des faits de conscience. Les travaux sur les robots autonomes abordent le problème à partir de bases différentes, les systèmes et agents informatiques, mais ils aboutissent à des conclusions de plus en plus proches de celles des neurosciences. Nous n'allons pas dans ce court article reprendre tout ceci, mais seulement résumer les caractères généralement attribués au cerveau et à ses états, afin de voir si nous les retrouvons dans la Machine du web telle que nous venons de la décrire. Distinguons en quoi les deux types d'organisations se ressemblent et en quoi elles diffèrent.

Première ressemblance.

Le cerveau n'a pas de capacités cognitives, que ce soit en neurologie ou en robotique, s'il n'est pas relié à un corps qui le distingue de l'univers extérieur et avec lequel il interfère en permanence grâce à des organes sensoriels (ou senseurs) et des organes moteurs (ou effecteurs). Ce sont les données reçues par ces organes qui constituent les objets mentaux synaptiques contenus dans le cerveau. Ce sont également celles émises par eux qui modifient en retour l'univers dans lequel se meut et survit, non seulement le cerveau mais le corps tout entier. Or la Machine du web a-t-elle un corps et est-elle dotée de senseurs et d'effecteurs ? A priori, sans entrer dans les détails, nous pouvons répondre par l'affirmative. Son corps et ses organes sont faits des innombrables utilisateurs du web, humains ou machines. C'est un corps très réparti, mais il se distingue de l'univers extérieur, y compris des humains non connectés, par divers traits physiques. De plus et surtout, il dispose des organes sensoriels et effecteurs des humains connectés et de leurs propres machines. La structure ainsi formée n'est pas tout à fait comparable à l'ensemble des neurones constituant le cerveau. Elle ressemble plutôt à ce que l'on appelle un essaim ou une meute (swarm). Autrement dit, il s'agit plutôt d'un super-organisme que d'un organisme mais les différences, à notre niveau d'approche, ne sont pas significatives.

Le fait que les humains connectés au Web disposent de capacités propres de représentation, grâce à leurs cerveaux et leurs cultures individuelles, ne change pas grand-chose dans le schéma d'ensemble où ils sont assimilés à des neurones cérébraux plus ou moins passifs participant au fonctionnement du Web. On peut en effet considérer que si ces cerveaux et intelligences individuelles enrichissent les capacités de recueil et de production d'information des terminaux du Web, à grande échelle, leur influence sur celui-ci est négligeable. Elle reste soumise aux lois statistiques gouvernant la dynamique d'ensemble du système. Ainsi la production des intelligences individuelles à haut coefficient compense la sous-production des intelligences plus modestes. Dans le cerveau d'ailleurs, comme sur le Web, tous les neurones ne sont pas également passifs. Certains neurologues considèrent qu'un certain nombre d'entre eux ne sont pas de simples machines à transmettre ou à traiter de façon linéaire l'information qui transite par eux. Disposant de millions de connexions synaptiques, ils se comportent probablement, dans certaines zones cérébrales tout au moins, comme des agents pro-actifs plus ou moins capables de créativité intelligente. Un neurone, ses dendrites et ses synapses doivent pouvoir, à lui seul et dans certain cas, computer c'est-à-dire créer de l'information, par exemple sur le mode des réseaux de neurones formels. Ils sont donc au moins aussi "intelligents" que certains hommes.

Deuxième ressemblance.

Le cerveau joue pour le corps le rôle d'une immense base de données mémorisant les expériences vécues par le corps. Il s'agit des associations ou objets mentaux précédemment évoquées. Celles-ci sont réparties à l'intérieur des zones cérébrales héritées génétiquement où elles servent de support aux activités réflexes ou aux mémoires de long terme. D'autres sont stockées dans des mémoires temporaires et permettent la mémoire immédiate(4). Certains neurologues considèrent que le cerveau avec son immense potentiel synaptique, est tout à fait capable de conserver, sinon d'utiliser efficacement, l'ensembles des informations reçues ou produites par un individu tout au long de sa vie. Nous pouvons donc considérer que le cerveau sur ce plan, n'est pas très différent du Web global qui conserve et conservera, sauf destructions occasionnelles, l'ensemble des données accumulées depuis sa création.

Principale différence.

Par contre, et c'est la différence essentielle, le cerveau est un système fortement interconnecté et fortement hiérarchique. Cette hiérarchisation dépasse de beaucoup celle que nous avons évoquée précédemment concernant la sélection des données qui apparaissent en tête de liste dans les moteurs de recherche. Elle est absolument systémique. Ceci apparaît particulièrement bien dans l'architecture anatomique et fonctionnelle du cerveau révélée par l'imagerie cérébrale moderne. On y voit l'organisation des six couches composant le cortex associatif. C'est la partie du cerveau dite aussi matière grise où l'on situe généralement le siège de l'intelligence et des états de conscience.

Les expériences accumulées par le cerveau reflètent la structure du monde tel qu'il est apparu au sujet tout au long de sa vie, sous la forme de séquences d'événements et de relations entre ces séquences. A partir de ces contenus de mémoire, le cerveau fait à tout instant des prédictions qui sont confrontées aux nouvelles expériences et mémorisées à leur tour après modifications éventuelles. C'est ce système de mémoire-prédiction qui constituerait l'essentiel de l'intelligence humaine, en organisant les perceptions, la créativité et même la conscience. Il est évident que la Méga-machine du web, aujourd'hui encore –sauf peut-être sous forme de traces ou d'amorces locales sans conséquences pratiques globales- est incapable d'une telle fonction qui permettrait de la prétendre vraiment intelligente(5).

Le cortex associatif ou néocortex est constitué de six couches empilées de neurones aux fonctions différentes, sur une épaisseur qui ne dépasse pas 2 mm. mais qui recouvre, chez l'homme, l'ensemble de la surface de l'encéphale. Grâce à sa structure hiérarchique, le néocortex reçoit en parallèle les messages envoyés par les organes sensoriels et par les couches plus profondes du cerveau. Il les organise sous forme d'objets mentaux, pour reprendre notre terme, ou de «patterns». Par pattern, il faut entendre des ensembles d'informations présentant une cohérence au plan géographique cérébral et au plan temporel (séquences chronologiques). Ces patterns correspondent, après diverses opérations destinées à éliminer l'accessoire pour garder le permanent, aux représentations que nous nous faisons du monde.

Le point essentiel, souvent négligé par les modèles courants du cerveau, est que le néocortex ne fonctionne pas seulement du bas vers le haut - le bas correspondant à la couche recevant les informations primaires et le haut mémorisant des informations de plus en plus globalisées et élaborées. Les patterns se forment dans chacune des six couches de neurones et sont restitués à la couche inférieure en même temps qu'ils sont adressés à la couche supérieure. Ce rétro-feedback prend la forme d'une prédiction renvoyée à la couche inférieure et instantanément comparée et modifiée si besoin est compte tenu des nouvelles informations provenant de l'extérieur. Dans ce modèle d'architecture, on pourrait dire que chaque couche de neurones du néocortex se comporte comme un néocortex à elle seule, à la différence qu'intégrée dans un système hiérarchique, ce qu'elle reçoit et émet influence en parallèle ce que reçoivent et émettent les autres couches. C'est cette architecture qui permet notamment de ne pas confondre le cerveau avec un ordinateur classique ni même avec un système complexe comme le Web, lequel n'est pas hiérarchisé globalement. Ainsi, contrairement à un ordinateur qui produit une information en sortie à chaque entrée d'information venant de l'extérieur, le cerveau fait, à diverses échelles de complexité, des prédictions basées sur les expériences et les séquences préalablement enregistrées. Ces prédictions provoquent des sorties motrices qui modifient le monde environnant, l'Univers, et provoquent en retour le recueil de nouvelles informations au niveau des entrées sensorielles. Les organes sensoriels et moteurs ne fonctionnent pas isolément. Ils s'auto-influencent à tous les niveaux de complexité du cortex, du fait des nombreuses liaisons synaptiques qui les relient. Là encore, ce n'est pas le cas des usagers du Web qui demeurent généralement isolés, c'est-à-dire ignorants de ce que font les autres, même si parfois des effets locaux de contamination les mettent en phase.

Deux autres caractères différencient le néocortex d'un réseau comme le Web global. L'une est l'organisation en colonnes verticales de quelques millimètres de diamètre qui mettent les neurones de chaque couche, à l'intérieur de ces colonnes, en communication avec ceux situés au-dessus et au-dessous. Ces colonnes (ou groupes de colonnes, car rien n'est unique dans le cerveau) sont en principe dédiées, du fait d'une architecture acquise par l'évolution et commandée à la naissance par les gènes de structure, à des types spécifiques de messages, par exemple transmettre via le cortex visuel, l'information relative à la perception d'une ligne verticale. Mais si nécessaire, en cas d'accident, elles peuvent se remplacer l'une l'autre. Le cerveau n'est donc pas au départ un amas indifférencié de neurones, un «tas de nouilles»(6).

Le deuxième caractère est opposé au précédent, ou plutôt complémentaire de celui-ci. Dans toutes les couches, avec une densité de plus en plus grande lorsqu'on s'élève dans la hiérarchie de ces couches, il existe des fibres de liaison qui, grâce aux synapses, permettent d'associer les mémoires et donc les prédictions formulées à chaque niveau hiérarchique. Ce sont ces fibres horizontales qui ont donné d'ailleurs au cortex son qualificatif d'associatif. L'existence de liaisons horizontales était connue depuis longtemps, mais on montre aujourd'hui qu'elles jouent un rôle permanent dans la modulation tant des informations émises en sortie que des informations reçues en entrée, ceci quelle que soit la complexité des patterns et des séquences transitant au sein des couches et à travers elles.

Un autre point important, qui permet au cerveau, malgré la lenteur de ses composants primaires, de réagir vite et de façon régulière, est l'invariance des patterns stockés à chaque niveau du cortex. Il s'agit d'une invariance relative, puisque les séquences mémorisées peuvent être modifiées si elles sont contredites par de nouvelles expériences. Mais lorsque ce n'est pas le cas, elles peuvent être immédiatement mobilisées pour produire des prédictions et entraîner des actions s'appuyant sur elles. Ceci ne constitue pas une observation nouvelle. On sait depuis longtemps que le cerveau commande de nombreux comportements sur le mode automatique, par exemple dans le cas de la conduite automobile, l'appel à des solutions plus complexes ne survenant qu'en cas de difficulté inattendue. Cette invariance des patterns ne doit pas être confondue, évidemment, avec les boucles sensori-motrices automatiques caractérisant l'ensemble de la vie organique et ne faisant pas intervenir le cortex. Ceci étant, ce phénomène de l'invariance des patterns au niveau du néocortex est absolument général. C'est pourquoi il caractérise le cortex comme un ensemble de mémoires prédictives. Dans chacune des couches et des colonnes, le néocortex stocke des séquences de patterns. Il s'agit d'un stockage auto-associatif, tel élément de séquence pouvant suffire à faire apparaître la séquence entière ou des séquences différentes dans lesquelles il figure. Là encore, c'est l'extrême connectivité synaptique du cerveau qui rend possible ces associations. Sur le Web, il existe une certaine invariance des données. Mais elle est très fragile et n'est pas indispensable au fonctionnement d'ensemble. Au contraire. Plus les données "mutent", plus la créativité globale du système semble en profiter. L'invariance apparaît a posteriori de façon statistique, certaines données se révélant plus consultées que d'autres et orientant la production de nouvelles données. Mais ceci de façon généralement peu permanente. Les données les plus invariantes à long terme sont les données qui ne sont plus consultées. Elles n'ont donc pas beaucoup d'influence fonctionnelle.

Enfin, dans le cerveau, les patterns sont stockés selon des architectures locales elles-mêmes invariantes et hiérarchiques. C'est ce caractère qui assure la permanence bien connue de la mémoire et le fait que les représentations primaires que nous nous donnons du monde s'articulent dans notre esprit en représentations de plus en plus complexes, débouchant dans certains cas sur des faits de conscience. Plus on s'élève dans la hiérarchie, plus les détails, importants dans les niveaux inférieurs, s'atténuent au profit des lignes générales. On voit ainsi apparaître, au sommet des couches néocorticales, des représentations correspondant à ce que l'on appellera en linguistique des concepts ou des noms. Les concepts sont seulement des abstractions épurées des détails. Ils n'ont pas besoin d'être nommés par le langage social pour exister et servir à orienter le comportement intelligent supérieur. Au plus haut de la pyramide, c'est le concept de « moi » qui synthétisera l'ensemble des expériences passées et actuelles enregistrées par le sujet. Mais de nouveau, on rappellera que la permanence et la hiérarchie ne sont que relatives. Elles peuvent laisser place à des variantes de représentations ou de hiérarchies si de nouvelles expériences imposent ces changements et si la plasticité d'ensemble du système permet d'en tenir compte pour assurer la réadaptation du système à un milieu profondément changé. Inutile de dire que jamais à ce jour on n'a surpris l'existence sur le Web d'une conscience de soi. Ou bien elle n'existe pas (et on ne voit pas comment elle pourrait se former, dans l'état actuel de l'interactivité des réseaux) ou bien il s'agit d'une forme d'intelligence ou de conscience pré-humaine, sinon extra-terrestre, que l'on pourrait retrouver dans les webs biologiques évoqués au début de cet article

Conclusion

Il est donc inutile de faire de longs développements pour montrer que l'intelligence globale n'existe pas encore dans le Web, pour la raison principale que celui-ci n'est pas organisé comme un cerveau biologique. Le Web se borne, et c'est déjà considérable, à enrichir (augmenter) les intelligences individuelles et collectives de ceux qui l'utilisent. Cela leur confère un avantage compétitif considérable par rapport au reste de l'humanité.

Ce sera sans doute l'objectif des futurs moteurs de recherche et d'édition que permettre l'émergence de patterns de représentation de plus en plus globaux, pouvant correspondre à l'apparition sur le Web d'une conscience voire d'une conscience volontaire globale. Sera-ce possible ? Sans doute. Qui en bénéficiera ? Les utilisateurs de la périphérie ? Des pouvoirs politiques centraux visant à réguler ou mobiliser les données du Web à des fins impériales ou impérialistes ? Bien pire ou bien mieux : ne s'agira-t-il pas d'émergences informationnelles et computationnelles qui s'imposeront d'elles-mêmes aux hommes connectés au Web et qui prendront le pouvoir sur eux, comme le prédisent certains auteurs de science-fiction ?

Il semble que nul ne puisse répondre à ces questions pour le moment. D'où la nécessité de rester vigilant, en ne sous-estimant pas mais en ne surestimant pas davantage les capacités d'évolution dynamique du réseau des réseaux.

Notes
(1) L'Internet des objets. On donne désormais ce nom aux objets capables d'émettre des messages recueillis et mémorisés par le web, par exemple la puce antivol incorporée à une automobile qui signale en permanence la position du véhicule, indépendamment de la volonté du conducteur. Voir le rapport de l'Union Internationale des télécommunications http://www.itu.int/osg/spu/publications/internetofthings/

(2) Cette thèse est développée dans l'ouvrage récent "La révolte du proNetariat", de Joël de Rosnay et Carlo Revelli. Voir une interview de l'auteur et les liens dans http://nextmodernitylibrary.blogspirit.com/archive/2006/01/18/la-revolte-du-pronetariat.html
Joël de Rosnay a appliqué ces idées en participant à la création d'un journal collectif sur le mode des multiblogs : AgoraVox http://www.agoravox.fr/. Jusqu'à présent, l'entreprise se révèle un succès, c'est-à-dire qu'elle offre une source très diversifiée d'informations et d'opinions ouverte à tous.

(3) Voir Comment les systèmes pondent de Pascal Jouxtel, Le Pommier 2005 : http://www.automatesintelligents.com/biblionet/2006/jan/csp.html

(4) Voir Les Dossiers de la Recherche, février-avril 2006, La Mémoire.

(5) Voir Jeff Hawkins, Intelligence, et notre présentation dans cette revue, dont nous avons importé ici quelques paragraphes
http://www.automatesintelligents.com/biblionet/2005/sept/hawkins.html

(6) Même si le web mondial n'est pas le « tas de nouilles » ou la poubelle généralement dénoncée par ses détracteurs, l'organisation voulue ou automatique (auto-organisation) des données qu'il mémorise n'atteint pas le niveau de complexité décrit ici – lequel se retrouve, rappelons-le, dans des cerveaux bien plus « primitifs » que ceux de l'homme.

Retour au sommaire