Vers le site Automates Intelilgents
La Revue mensuelle n° 114
Robotique, vie artificielle, réalité virtuelle

Information, réflexion, discussion
logo admiroutes

Tous les numéros


Archives
(classement par rubriques)

Image animée
 Dans La Revue
 

Retour au sommaire

Automates Intelligents s'enrichit du logiciel Alexandria.
Double-cliquez sur chaque mot de cette page et s'afficheront alors définitions, synonymes et expressions constituées de ce mot. Une fenêtre déroulante permet aussi d'accéder à la définition du mot dans une autre langue (22 langues sont disponibles, dont le Japonais).

Article Du désir à l’intelligence
Xavier Saint-Martin, 17/10/ 2010 - 26/01/2011

* Xavier Saint Martin est l'auteur de l' "Appareil psychique dans la théorie de Freud" Voir http://www.automatesintelligents.com/biblionet/2009/nov/psychanalisecognitive.html

Pierre Steiner nous rappelait récemment que « les sciences cognitives connaissent aujourd'hui, peut-être plus que jamais, une période d'incertitude fondationnelle. Il était relativement aisé, il y a vingt ans, de faire dépendre l'avenir des sciences cognitives du débat entre théorie computationnelle classique et connexionnisme (Fodor & Pylyshyn vs. Smolensky). Les choses sont aujourd'hui beaucoup moins simples. », et il citait la multiplication des théories de la cognition 1). A ces nombreuses approches théoriques viennent s’ajouter des contributions radicalement philosophiques ou mathématiques, dont l’intérêt, indubitable, illustre cependant une certaine errance épistémologique des sciences cognitives. La question est d’importance non seulement pour ces dernières, mais encore pour l’intelligence artificielle, qui aurait tout à gagner d’une clarification des processus de la pensée et de l’action.

De fait, il faut constater que la promesse de réaliser des systèmes artificiels intelligents, faite il y a une quarantaine d’années, n’a pas été tenue. En lieu et place, on dispose de robots compagnons ludiques relevant de processus de type stimulus-réponse basiques, fussent-ils dotés de capacités d’apprentissage, tandis que les performances des systèmes d’action autonome s’effondrent dès que l’environnement s’éloigne de ce qui a été pré-spécifié par leurs concepteurs. D’intelligence, point. Pourquoi ?

Dans la même revue, Ezequiel Di Paolo analyse la robotique à la lumière du comportement animal, et pointe chez elle un manque fondamental qui empêche de concevoir de vrais agents cognitifs artificiels : un robot est totalement indifférent au fait de réussir ou d’échouer dans la tâche qui lui a été assignée. Il en conclut que ces robots ne pourront jamais être autonomes, faute d’avoir envie de réussir 2. On voit mal en effet pourquoi un robot agirait de lui-même si le succès ou l’échec de son action ne change rien pour lui.

Telle est, a contrario, l’apparente téléologie des actions des organismes vivants : si l’on considère qu’ils sont ouverts (au sens thermodynamique) et qu’ils ne peuvent maintenir la constance de leur organisation qu’au prix du recueil, dans le monde, des éléments aptes à maintenir cette constance, une première motivation du vivant à agir est toute trouvée : c’est l’autoconservation. Une telle contrainte peut offrir une piste aux sciences cognitives : le degré zéro de l’intelligence consiste à assurer sa propre pérennité ; autrement dit, se protéger de ce qui risque de diminuer la capacité à agir. Ce degré zéro de l’intelligence semble négligeable ; il ouvre pourtant la voie aux processus d’apprentissage et de réaction adaptée à l’environnement. Il illustre également l’importance du corporel, encore négligé par une certaine intelligence artificielle qui court toujours après la simulation d’une intelligence désincarnée, malgré la contradiction absolue entre ces deux derniers termes.

L’approche phénoménologique en sciences cognitives a d’ailleurs mis en évidence que le monde en-soi n’a aucun intérêt pour le vivant, et que seul compte le monde pour-soi, ce qui conditionne tout autant les processus de perception que d’action du vivant, et qui les fait co-advenir.

Mais un tel principe de motivation par l’autoconservation, même s’il devrait permettre de concevoir des systèmes artificiels intelligents, ne saurait suffire, puisqu’on compte bien que de tels systèmes soient efficaces en situation hostile (catastrophes naturelles, par exemple), situation qui pourrait nécessiter d’un robot qu’il prenne volontairement le risque d’être détruit. Constatons donc que cette exigence vitale de l’autoconservation n’épuise pas non plus, loin s’en faut, tous les motifs d’action de l’humain, lequel se donne en effet des objectifs allant bien au-delà de la simple survie. Pensons par exemple aux actes de bravoure, ou au sacrifice de l’individu qui accepte de mourir pour servir une cause qu’il estime juste.

Ainsi, au-delà de l’autoconservation, il sera nécessaire de faire appel à une forme d’option morale pour concevoir des systèmes autonomes intelligents. Nul doute que l’enjeu technologique consistant à implanter des règles morales dans des robots peut sembler bien lointain aux yeux d’un spécialiste de l’intelligence artificielle. Il est hélas incontournable.

Par bonheur, cette option morale peut être abordée sur un plan purement organisationnel : Saadi Lahlou nous démontre que l’individu en situation de travail vise non seulement à son autoconservation, ni même seulement à satisfaire ses motivations les plus abstraites et lointaines dans le temps (au sens de leur réalisation potentielle), mais encore vise à satisfaire l’autoconservation et les objectifs d’organisations desquelles il participe (famille, entreprise, groupe social…) 3). Face à une situation donnée, il a toujours à composer entre ce qu’il juge bon pour lui et ce que les organisations d’appartenance lui réclament de faire pour assurer leur propre autoconservation. L’individu se trouve ainsi devoir composer entre de multiples attracteurs, parmi lesquels certains pourront gravement compromettre son intérêt, pour le bénéfice de ce qu’on peut appeler un super-organisme.

Ainsi ramenée à de l’autoconservation étendue au-delà de l’individu, l’option morale semble moins difficile à implémenter dans un système artificiel. Pour autant, elle continue à requérir que le système artificiel soit guidé par une forme de motivation à agir, qu’on peut également appeler le désir, avec son corollaire indicateur de succès, qu’on peut appeler la gratification, ou le plaisir. Indicateur à l’aune duquel un système artificiel pourra estimer à quel point il a atteint l’objectif visé. Il va de soi que son autoconservation devra faire partie de cet ensemble.

Ce couple motivation / gratification (ou désir / plaisir) semble incontournable : tant qu’un robot ne sera pas motivé à agir, il ne pourra pas exhiber de comportement intelligent. A ce titre, la question de l’incertitude fondationnelle des sciences cognitives ne semble donc pas être essentiellement celle de savoir quel modèle de la cognition est le plus pertinent. Que l’approche soit symboliste, connexionniste, ou toute autre, elle peut certainement offrir à l’intelligence artificielle les fondements nécessaires à la conception de systèmes motivés. L’efficacité des résultats se chargera naturellement de faire le tri entre les théories pertinentes et celles qui le sont moins, ce qui ne pourra que servir, en retour, la compréhension des processus cognitifs humains.

Notes
1) Steiner P., Philosophie, technologie et cognition. Etat des lieux et perspectives, Intellectica, revue de l’Association pour la Recherche Cognitive, n° 53-54, 2010, page 34.
2) Di Paolo E., Robotics Inspired in the Organism, ibidem, page 132.
3) Lahlou S., Contexte et intention dans la détermination de l’activité : une nouvelle topique des motivations, ibidem, pp. 233-280

Retour au sommaire