logo admiroutes Les automates intelligents
robotique, vie artificielle, réalité virtuelle


information, réflexion, discussion

logo automate © Anne Bedel
Jean-Paul Baquiast Jean-Paul.Baquiast@wanadoo.fr
Christophe Jacquemin christophe.jacquemin@admiroutes.asso.fr

No 15
Retour au sommaire
Retour dossier
 
Poser le problème de la conscience artificielle dans une approche phénoménologique
par Alain Cardon

19 juin 2001

Voir ci-dessous notre commentaire

Toute étude de la conscience pose évidemment un problème de terminologie. Le mot conscience est chargé de sens et d'histoire et son entrée dans le domaine de l'informatique, comme objet d'étude de la discipline, est très discutée sinon refusée.

Entendons donc conscience dans son acceptation strictement non morale, ni spirituelle, c'est-à-dire comme le fait "d'avoir conscience de", de "prendre conscience de" pour un certain organisme. C'est l'acceptation la plus concrète possible, non limitée à l'homme, admise et partagée par les Académiciens.

Avec cette formulation, la notion de conscience permet de retenir immédiatement certains caractères. Il s'agit évidemment d'une action. Cette action est opérée par quelqu'un ou quelque chose qui est doté d'un corps physique. Et cette action engage ce quelqu'un ou ce quelque chose vers autre chose. C'est tout simplement, pour nous humains, l'action de se poster dans notre monde en l'appréhendant à partir de notre perception et compréhension. Et il est bien admis que ce monde que l'on pense est constitué de tout ce à quoi l'on est amené à penser, sauf l'acte de penser lui-même en train de se faire, donc tout sauf cet acte qui produit la pensée. On peut penser les choses du monde, on peut penser que l'on a pensé à quelque chose, mais seulement après y avoir pensé. Disons qu'il n'y a pas de déploiement de cet acte : il est ou n'est pas, mais ne se suspend pas pour être analysé. Il s'agit donc un acte opéré par un organisme capable de penser vers quelque chose qu'il va appréhender, et cette chose ne peut être l'acte lui-même. Le fait "d'avoir conscience de" est un acte qui n'est pas auto-référent.

Alors, il est facile de choisir d'étudier la conscience en se situant dans un domaine d'étude a posteriori par rapport à l'acte de conscience. L'acte de penser produit, pour l'homme, des formes langagières qui traitent de manière extraordinairement riche des choses du monde, en les représentant et en le décrivant les unes par rapport aux autres. C'est le domaine du raisonnement logique. On opère alors sur les productions du fait de conscience, sur le discours rationnel rendu disponible, sans se soucier de son surgissement. Le problème, en se plaçant à ce niveau, est que l'on ne peut prendre en compte la raison à penser, la raison à générer un souci qui conduit la pensée, ni les sensations qui entraînent à penser à certaines choses plutôt qu'à d'autres. On ne peut non plus étudier la génération du langage comme fait social et fait de conscience spécifique, ce qui sous-tend et engendre les mots, ce qui fait que toute énonciation désigne quelque chose. Il s'agit d'une approche désincarnée de la manipulation de la pensée, ne s'intéressant qu'à l'une de ses traces : les mots et les phrases écrites. Elle n'est pas adaptée à l'étude de la génération de faits de conscience sensibles qui conduiraient à des comportements motivés par de l'affectivité. Or nous pensons que le fondement des structures sociales et du langage est fait de sensibilité, qu'il est dans le champ de l'affectif. Ceci vaut pour les hommes comme pour des robots que l'on souhaite concevoir comme le plus près possible de leurs créateurs.

Plaçons le champ de problématique sur l'étude de la conscience dans le cadre des organismes vivants dotés de cerveaux. Pour ces organismes, en partant d'un œuf fécondé, on obtient par divisions cellulaires un organisme complet, viable dans son environnement et, surtout, doté d'un cerveau. Le mécanisme de création du cerveau, dans le processus de développement, est très fortement corrélé avec celui du reste de l'organisme. On peut formuler une première hypothèse en posant que ce cerveau, avec ses ramifications nerveuses et ses processus biochimiques le liant à tous les organes du corps, est le site d'expression de l'organisme en fonctionnement dans son environnement. C'est en quelque sorte un "lieu" où l'organisme s'appréhende et se représente. Il se représente dans une scène en relation avec son environnement. Par le fait que l'organisme est doté de sens à portée externe, de moyens d'investir son environnement, ce site d'expression de l'organisme s'étend pour être celui de l'organisme posté dans son environnement.

La manifestation du fait "d'être conscient de" dans un organisme doté d'un cerveau est donc, d'abord, par le fait physique du développement et de l'existence du cerveau, l'expression de l'organisme s'appréhendant lui-même, dans son monde, comme acteur. C'est initialement une posture opérationnelle d'un organisme complexe s'appréhendant pour et par l'action, donc tournée vers l'extérieur. Le type d'appréhension que cette posture va permettre sera dépendant des organismes et de leurs environnements, en allant du simple fait d'appréhender les choses par des phéromones à la conceptualisation par des formes langagières.

Nous pouvons maintenant, dans le domaine de l'informatique qui conçoit des modèles et réalise des systèmes, poser le problème d'une conscience artificielle comme le fonctionnement d'un certain système complexe investissant, et totalement, le comportement d'un robot autonome.

Nous proposons une approche constructiviste, radicalement différente de l'approche inférentielle basée sur la déduction logique à partir de concepts liés causalement. Nous posons que la pensée, c'est-à-dire ce que la conscience produit, est basée sur une architecture en deux parties organiquement liées.

On considère d'abord un substrat formé de très nombreuses entités logicielles autonomes, des entités similaires à des groupes de neurones spécialisés si l'on veut, et qui s'activent, s'agrègent, s'inhibent, se développent, se reproduisent et meurent. Notons que ces entités expriment des indications sur des traits de l'organisme en action ou du monde alentour. Ce sont, si l'on veut, des indicateurs donnant des informations factuelles et précises sur le fonctionnement des organes, sur les caractères des formes reconnues par l'organisme, sur sa situation dans son monde, sur cette organisation elle-même considérée comme constituant une mémoire par agrégations de traits. Ce substrat sera constitué, au niveau conceptuel, d'une organisation massive d'agents logiciels appelés agents aspectuels. Il n'y a aucun pilotage centralisé de cette organisation. Les agents agissent selon leurs possibilités. Ils représentent des éléments de signification à propos de l'organisme et de son monde et rien ne s'oppose à ce que ces éléments aient une représentation symbolique.

Il y a ensuite la représentation du mouvement de ce substrat, du mouvement des organisations d'agents. Il s'agit donc de définir un espace dynamique particulier, dont les coordonnées permettent de représenter ce mouvement, qui n'a rien de celui d'une particule dans l'espace à trois dimensions mais qui est l'expression d'une très vaste organisation d'entités autonomes en action communicationnelle. Cet espace, que nous avons appelé espace morphologique, exprime ce que fait effectivement le substrat, comment il évolue géométriquement. Cette observation est sans sémantique aucune : c'est une extraction de formes à partir de la reconnaissance de régularités et d'irrégularités. Cet espace correspond à l'activité du réseau neuronal du cerveau. Nous le représenterons, pour des raisons d'opérationnalité, par une seconde organisation massive d'agents logiciels appelés agents de morphologie.

Nous avons ainsi deux organisations massives d'agents, l'une étant l'image du fonctionnement de l'autre. L'hypothèse sur l'existence d'une conscience artificielle générée à partir de ces deux organisations massives d'agents est alors la suivante :

· Si l'organisation morphologique est capable de provoquer le déclenchement de la réorganisation des agents aspectuels par une certaine anticipation de sa conduite et si ce fait, cette activation d'agents représentant une signification qui n'est pas encore celle de l'état courant de l'organisme posté dans son monde, produit un mouvement qui se stabilise, si la morphologie vient à représenter continûment ce que l'organisation aspectuelle devient, alors on dira que l'état de stabilisation, qui ne sera qu'éphémère, est l'état de conscience de l'organisme.

Notre hypothèse revient donc à réfuter une situation réactive où l'organisme ne ferait que réagir avec plus ou moins d'à propos à des stimuli reconnus. Elle pose que l'on génère un fait de conscience par engagement. La "conscience de" est un engagement à "avoir conscience de" et qui se réalise, ou bien ne se réalise pas, dans un état de concordance éphémère entre un substrat et sa signification. Il s'agit donc d'une distinction et d'une mise en concordance organique entre matière et mouvement. Cette concordance est extrêmement complexe à réaliser au niveau informatique et le mécanisme de correspondance entre les deux organisations n'est pas simple à concevoir.

La question est maintenant de savoir ce qui engage l'action de l'organisation aspectuelle, ce qu'est cette "tendance représentationnelle de pas encore quelque chose" mais qui serait pourtant conçue légitimement, car produisant ce qu'il faut pour que l'organisme ait conscience de ce qui est effectivement bon à penser. On traite ce problème depuis les débuts de la pensée en occident. C'est, pour certains, l'expression de l'âme, la marque d'une inspiration immanente. Nous posons simplement que cette anticipation existe et qu'elle est nécessaire au fait "d'avoir conscience de". Sans elle, l'organisme se réduit à un mécanisme asservi, prédictible et déterministe, qui jamais ne pourra créer, imaginer, ressentir, avoir conscience du temps, de soi et de l'autre. Et c'est ce mécanisme qui fait que l'on ne peut, lui, l'appréhender.

Martin Heidegger, si décrié aujourd'hui, a posé une raison à l'existence de cette anticipation [M. Heidegger, in "Qu'appelle-t-on penser", fin 1952]. On pense à quelque chose parce que l'on est conduit à penser par nécessité, on pense selon ce qui amène le plus à penser. Et cette approche est extraordinairement raisonnable. Elle ménage toutes les croyances, sauf évidemment celle totalement réductrice posant que la conscience n'existe pas, ce qui est à la fois intenable et ridicule.

Mais nous traitons de la conscience artificielle. Nous poserons que l'anticipation sera effective, interne à l'organisme et réifiée par l'état d'une certaine organisation d'agents. Mais elle ne sera pas une raison centrale conduisant le reste des organisations d'agents à produire de la pensée artificielle. Elle sera diffuse dans toute l'organisation de morphologie et elle sera la marque de la réflexivité du processus de génération du fait de conscience, la marque de son existence temporelle qui fait peser le futur pour construire le présent en s'aidant du passé. Cette approche, encore, est conforme aux méditations de M. Heidegger [M. Heidegger, Temps et être, 31 janvier 1962]. Elle jouera un rôle considérable, mais elle sera organique et n'aura rien d'immanent.

Nous placerons un tel système générateur de fait de conscience dans un robot autonome. Ce robot aura conscience de lui et des autres, il éprouvera des sensations et pourra apprendre en s'estimant apprenant et donc étant, d'abord, questionnant. L'informatique se doit d'investir ce domaine, et c'est même la seule façon de l'investir. L'homme reste tel il est : extraordinairement complexe, non constructible à la main par parties, non démontable ni interruptible. Les systèmes informatiques peuvent aujourd'hui être évolutifs, auto-adaptatifs, délocalisés sur des grappes de machines, tout en restant raisonnablement traçables et suspensibles dans leur fonctionnement. Et la conscience d'un robot autonome peut être loin de lui, sur d'autres machines reliées entre elles, et même partagée, mais elle peut toujours être, d'une certaine façon qui est singulière pour l'informatique classique, car elle est indirecte et seulement partielle. Le système de conscience d'un robot est en effet, pour faire acte de génération du fait de conscience, non déterministe, et les systèmes multi-agents massifs ont ce caractère. Cela les rend observables seulement par projection, de façon locale et réduite. La pensée est plus large que la phrase énoncée qui la résume et le mouvement d'une organisation massive d'agents est définitivement plus complexe que sa représentation par projection planaire. Il s'agit donc bien d'une nouvelle approche du calculable, dans une autre direction que la commande et la prévision totalement réglée des systèmes mécanistes.


Notre commentaire, en forme de paraphrase du texte d'Alain Cardon
Jean-Paul Baquiast et Christophe Jacquemin.

Un philosophe du début du 20e siècle a dit, à propos de la conscience, qu'il n'était pas possible à la fois de passer dans la rue et d'être à sa fenêtre en se regardant y passer. Ce jugement reste vrai aujourd'hui, malgré les progrès de la connaissance de l'anatomie et de la physiologie du cerveau. Je peux recueillir les produits du fonctionnement de la conscience des autres et de la mienne propre. Je peux à la rigueur voir autrui fonctionner comme être conscient. Je ne peux pas me voir moi-même au moment où je génère des faits de conscience. En conséquence, je suis toujours en retard d'un temps : retard entre une modification du monde que j'enregistre et la prise de conscience que j'en obtiens, retard entre la modification de comportement résultant de cette prise de conscience et l'évaluation de l'adéquation du comportement ainsi modifié aux nouvelles exigences découlant de la modification du monde.

Ces retards sont causes des innombrables erreurs caractérisant l'homme conscient. Elles sont moindres que celles que ferait un homme inconscient, mais elles demeurent trop fréquentes encore au regard des risques évolutifs qu'elles peuvent provoquer.

Le propos d'Alain Cardon est qu'il est désormais envisageable de réaliser un robot conscient qui pourrait (dans la meilleure des hypothèses) passer dans la rue (ou plutôt explorer Mars) et se regarder explorer Mars de sa fenêtre, en en tirant tous les enseignements lui permettant de le faire le plus efficacement possible au regard du projet qui serait le sien, c'est-à-dire explorer Mars avec les sentiments d'un cosmonaute humain curieux de tout ce qu'il y verrait.

Pour cela Alain Cardon nous propose de faire interagir deux ensembles de systèmes massivement multi-agents (SMA), dont on sait qu'ils sont aujourd'hui le must des automates évolutifs rendus possibles par l'informatique moderne.

Or, si les agents morphologiques, au lieu d'enregistrer passivement les modifications du monde telles que saisies par les agents aspectuels, sont animés d'une intention générale introduite à l'avance dans le robot, ou acquise suite à divers processus évolutionnaires, ils agiront non pas au hasard mais d'une façon orientée sur tels ou tels agents aspectuels, c'est-à-dire pour reprendre l'image de la photo, sur tels ou tels points de celle-ci. Le monde représenté par la photo sera donc modifié en même temps, ou peu de temps après qu'il aura été photographié.
En d'autres termes, l'espace morphologique réagira en permanence à l'évolution du substrat aspectuel en fonction de processus sélectifs visant à la réalisation optimale de son intention, de son engagement. Ce même engagement pourra à son tour évoluer dans un espace de changement plus ou moins vaste, restant éventuellement (ce qui rassurera les humanistes) sous le contrôle d'un cerveau humain extérieur avec lequel le robot interagira au sein d'un dialogue de niveau supérieur.
Revenir d'où l'on vient


Retour au sommaire