logo admiroutes Les automates intelligents
robotique, vie artificielle, réalité virtuelle


information, réflexion, discussion
logo automate © Anne Bedel
Jean-Paul Baquiast Jean-Paul.Baquiast@wanadoo.fr
Christophe Jacquemin christophe.jacquemin@admiroutes.asso.fr

13
Retour au sommaire
 

logo Revue les automates intelligents - © image : Anne Bedel

Le feuilleton
Eléments de définition
J.P.Baquiast

Un générateur  automate d'états de conscience

Retour à la lecture du feuilleton

Eléments de définition précédents  
Langage afficheurLa commande : "Recherchez solution" ; individu,-individuation ;
conscience collective ; conscience ; catégorisation ; information  ; darwinisme ; théorie computationnelle de l'esprit ; émergence ; intelligence ; intelligence artificielle
; cybionte ; automate ; paradigme de l'automate

Avertissement: ces définitions n'ont aucun caractère vraiment scientifique, ni même philosophique ou politique.
Elles visent seulement à illustrer les propos parfois sibyllins ou trop rapides de nos deux amis Alain et Bernard.
Nous les modifierons éventuellement au fil des discussions.

Les informaticiens et les automaticiens sont de plus en plus intéressés par la possibilité de créer des automates dotés de conscience. Comment pourrait-on concevoir la mise en place d'une telle machine consciente ? On peut l'imaginer en se reportant à ce qui se passe dans un échange entre deux personnes, M et N, discutant des solutions possibles à un problème compliqué. Chacune d'entre elles se représente une partie du problème, et la discussion les conduira, si elle aboutit, à s'entendre sur une solution commune qui se substituera aux représentations qu'elles avaient du problème avant la discussion. Nous pourrons dire qu'un nouvel état de conscience a été généré, a priori plus riche et mieux adapté à la résolution du problème que les représentations partielles antérieures de M et de N.

Comment la mécanique aboutissant à ce nouvel état de conscience a-t-elle fonctionné ? M. a commencé par afficher, au travers du langage, une solution construite à partir de la représentation qu'il se faisait du problème et des choix possibles. Il a pour cela fait appel à toutes les données dont il disposait en mémoire, données de type rationnel, mais aussi résultats d'expériences personnelles et sans doute aussi de réactions affectives. "A mon avis, je crois qu'il va pleuvoir demain, parce que le ciel se couvre. Faut-il maintenir notre pique-nique?" Nous dirons que ces données étaient "conscientes", ou susceptibles de prise de conscience, traitement et transmission par le langage, dans la mesure où elles étaient mémorisées dans des registres du cerveau permettant leur mobilisation immédiate. En informatique, on dira qu'il s'agissait de données compatibles, ou écrites selon des formats permettant l'interopérabilité. D'autres données, sur la même question, figuraient certainement dans le cerveau de M, mais dans des registres relevant de l'inconscient. Elles n'étaient donc pas mobilisables au profit de l'échange avec N, et moins encore compréhensibles et retraitables par ce dernier. On n'en tiendra donc pas compte, pour ne pas compliquer inutilement le schéma.

L'ensemble de cet affichage (données et algorithmes) propre à A est entré en compétition darwinienne au sein du cerveau de B, avec la solution que celui-ci avait commencé à imaginer, en utilisant ses propres données, son expérience et son affectivité. Si la solution de A, comme il arrive souvent, ne s'est pas trouvée immédiatement cohérente (ou en résonance) avec les données et algorithmes composant la solution envisagée par B, un échange de type contestations-raisonnements en défense s'est engagé entre les deux partenaires. "Je crois que tu te trompes, le baromètre est en hausse. Maintenons le pique-nique". On retrouve là l'hypothèse des affichages, tests de pertinence, nouveaux affichages et nouveaux tests qui sont à la base des conversations langagières, selon les travaux de Jean-Louis Dessalles.

Or le point important, sur lequel il faut insister, c'est que l'ensemble de la discussion, comme l'adoption du résultat final, (annuler ou non le pique-nique) ont été placés sous le signe de la compétition darwinienne, avec mutation-sélection des différentes générations d'arguments, et émergence du plus apte, lequel a représenté la solution au problème conjointement adoptée par M et N au terme de leur discussion (à supposer qu'ils se soient mis d'accord pour une solution commune). Rien ne garantit que cette solution sera la meilleure, ni la seule possible. Il s'agira seulement de celle qui aura émergé, au terme d'un certain nombre d'échanges provoquant la mutation des arguments et la sélection de nouvelles générations d'arguments. On se retrouve là dans la problématique de l'utilisation des algorithmes génétiques. L'algorithme final est celui qui répond le mieux à la question posée, dans le champ des possibles cerné par les critères de sélection initiaux.

Le générateur d'un nouvel état de conscience a donc fonctionné comme une mécanique simple permettant de sélectionner des solutions nouvelles aussi adaptées que possible aux problèmes rencontrés. On peut aussi dire qu'il s'agit d'une machine à inventer des solutions nouvelles adaptées. Ces solutions, reprises dans la vraie vie, seront à leur tour retenues, rejetées ou modifiées par l'expérience concrète, ce qui entraînera de nouveaux échanges entre M et N.

Il faut d'ailleurs observer que c'est le même phénomène qui se produit au sein de la conscience d'un individu isolé. Comme l'a bien montré Daniel Dennett, c'est le conflit darwinien permanent entre contenus de conscience liés à des sous- registres du cerveau et à des référentiels informationnels propres à ces sous-registres, qui produit chez un individu donné l'émergence, à tous moments, d'un état de conscience et le cas échéant d'une verbalisation unique. Dans ce cas d'ailleurs, il serait erroné de penser que l'émergence de tel état de conscience chez un individu isolé résulte uniquement d'un conflit darwinien entre les contenus de ses divers sous-registres. C'est le plus souvent par interaction avec le milieu social, autrement dit par l'importation permanente d'entrées venues de l'extérieur, que se modifient les contenus de ces sous-registres.

Ceci admis, il devient possible de transposer un tel mécanisme, vieux comme l'histoire du langage dans l'espèce humaine, à la génération de faits de conscience dans des automates.

Il faut que ces machines disposent de références et données aussi nombreuses que possibles, mémorisées dans leur unité centrale ou accessibles au travers de réseaux tels qu'Internet offrant des interfaces standardisées d'échange. Il faut aussi que ces machines aient vécu des histoires leur ayant dessiné un profil donné, voire des intentions données, justifiant leur appétit pour la survie compétitive. Il s'agira en fait de ce que l'on pourrait appeler des agents génétiques, prêts à entrer en compétition entre eux.

Imaginons maintenant le processus qui permettra à nos automates d'acquérir des états de conscience. Nous pourrions organiser un dialogue entre deux d'entre eux analogue à la situation créée par une discussion entre deux personnes. Mais ce dialogue risque d'errer longtemps avant qu'apparaissent des états de conscience reconnaissables par nous comme tels. La situation la plus simple, bien qu'offrant des ouvertures à terme plus limitées, consistera à mettre en place un dialogue entre une personne et un automate.

Créons donc une discussion entre la personne physique M et l'automate A. Là encore, il s'agira de résoudre en commun un problème pour lequel chacun des interlocuteurs ne dispose que d'informations et de solutions partielles (l'opportunité de maintenir un pique-nique compte tenu des prévisions météorologiques disponibles). M fera appel, comme précédemment, aux données de son expérience. A fera de même, en s'appuyant sur sa propre mémoire, mais aussi sur un certain nombre de ressources qu'il pourra aller chercher avec des moteurs de recherche puissants et rapides, dans des milliers de documents et informations disponibles sur le web (par exemple, en  consultant des données récentes fournies par des stations météorologiques auxquelles M n'aurait pas accès). A pourra également avoir été conçu pour réagir à des états internes relevant de ce que l'on appellerait de la sensibilité, des affects. Dans ce cas, il choisira plutôt telles informations que d'autres, pour répondre à telle question.

Les données et algorithmes échangés, comme les méthodes par lesquelles ils entreront en compétition, ne changeront pas radicalement par rapport à ce qu'ils étaient dans le cas précédent. Une solution finira par s'imposer, qui, en ce qui concerne l'automate A, représentera un enrichissement dans l'acquis disponible pour de nouvelles confrontations. Il n'est pas exclu, en contrepartie, que les informations ou arguments mobilisés par A dans la discussion, enrichissent à leur tour les contenus de conscience de M. Au bout de nombreux échanges sur le même mode, on aboutira à ce qui serait dans d'autres circonstances une auto-formation croisée entre deux personnes, améliorant la pertinence de l'image qu'elles se font de leur environnement et celle de leur soi dans cet environnement. Le cas échéant des coopérations ou symbioses augmentant leurs capacités d'adaptation à des événements non prévus pourront émerger des échanges.

Ultérieurement, comme dans le cas de la formation de la conscience chez un humain disposant de plusieurs sous-registres entrant en compétition darwinienne, nous pourrons très bien mettre en place un automate plus complexe B, constitué de sous-ensembles éduqués et informés au cours de processus d'échange avec des humains, analogues à ceux ayant informé A. Nous les appellerons B1, B2, B3, etc. Chacun de ces sous-ensembles aura donc un profil et des références informationnelles différentes. Afin de donner à B la possibilité de disposer d'états de conscience reposant sur la confrontation darwinienne entre contenus de B1, B2, B3… l'architecture de B devra être conçue de telle sorte que ces sous-ensembles entrent en compétition afin que B puisse compiler des réponses de synthèses sélectionnées à partir des meilleures solutions offertes par ses sous-ensembles. Dans cette optique, B se présentera comme un réseau multi-agents dont les capacités croisées de dialogue et d'enrichissement avec la personne physique M seront améliorées. Il s'agira finalement d'un générateur d'idées artificielles, qui, dans certains cas, pourront être appelées des états de conscience dans la mesure où elles incluront la prise en considération de la représentation de B par lui-même.

Ce schéma est évidemment très simplifié. On conçoit bien que la mise en place et la résolution de conflits au sein d'automates pouvant comporter des milliers de sous-ensembles ou agents poseront de difficiles questions informatiques, théoriques mais surtout pratiques. Cependant, l'ensemble du schéma pourra rester simple, si l'on s'efforce de rester proche des conditions du dialogue entre personnes physiques sur des sujets triviaux, par l'intermédiaire des processus du langage et de l'acquisition de valeurs ajoutées de connaissance au sein des systèmes de représentations, dont on commence à se faire une idée relativement claire.

Remonter d'où l'on vient


Retour au sommaire