logo admiroutes Les automates intelligents
robotique, vie artificielle, réalité virtuelle


La revue mensuelle
information, réflexion, discussion
(voir présentation)
logo automate
Jean-Paul Baquiast Jean-Paul.Baquiast@wanadoo.fr
Christophe Jacquemin christophe.jacquemin@admiroutes.asso.fr

N° 21
Retour au sommaire

Le point sur...

Panorama actuel de l'Intelligence Artificielle
par Alain Cardon,  Jean-Paul Baquiast et Christophe Jacquemin

L'Intelligence Artificielle (IA) est aujourd'hui éclatée en de nombreux thèmes et écoles bien différents. Elle n'a plus vraiment d'unité réelle et regroupe des chercheurs travaillant sur les systèmes à base de connaissances, les logiques non standards ou encore les robots autonomes et coopératifs.
Certaines écoles, comme celle des Sciences Cognitives, partagent systématiquement leurs recherches avec celles d'autres disciplines scientifiques et ont un caractère pluridisciplinaire. La compétition est forte et les dotations financières faibles.
La position de l'IA en France est fragile. Les domaines d'applications sont très variables : simulations, aide à la décision, reconnaissance, contrôle, aide à l'apprentissage… L'IA s'appuie aujourd'hui sur des langages de programmation qui ne lui sont plus propres (Lisp était un langage propre à l'IA et les machines Lisp étaient dédiées aux problèmes d'IA) et permettant la distribution des traitements sur réseaux de machines sous Unix ou Linux.

Rappelons qu'une Nouvelle Intelligence Artificielle est née au début des années 90. L'ouvrage de M.A Rodrigues et M.H. Lee (New AI and Perceptual Control Theory, IOS Press,1993) qui en présente un large aspect, en pose les principes en critiquant les limitations de l'Intelligence Artificielle Traditionnelle (IAT) et montre ses échecs relatifs. Il s'agit de considérer des systèmes autonomes et communicants capables de prendre de bonnes décisions comportementales dans des environnements très complexes. Ces systèmes, qui se positionnent clairement comme la suite et le dépassement des travaux d'A. Newell sur le niveau connaissance (1980), se nomment des agents. Mais le terme agent va recouvrir de nombreuses réalités dans le monde de la nouvelle IA(1).

L'IAT considère, sous forme de postulat, qu'un système symbolique, clos, utilisant des règles logiques et des systèmes d'inférences, est nécessaire et suffisant pour traiter tous les problèmes faisant intervenir du raisonnement, pour traiter tous ceux faisant intervenir des connaissances et même pour faire produire des comportements intelligents à des systèmes physiques dédiés. Il s'agit d'une approche strictement computationnelle de la cognition. Le système assurant le comportement de l'entité intelligente est fondé sur des règles logiques validables à l'avance. Des langages de programmation bien adaptés ont été développés pour permettent la représentation de ces règles (dialectes de Lisp, SBC...). Des travaux compliqués sur les logiques (logiques temporelles, floues…) ont permis d'étendre un peu le domaine de l'IAT en obtenant des résultats en reconnaissance des formes, en génération de plans et en systèmes d'aide à la décision.

Une réaction face à la non adaptativité des systèmes de l'IAT et de l'impossibilité de représenter du sens commun dans un système a été de distribuer l'intelligence en la considérant comme fondamentalement communiquante et sociale (Ferber, Bond, Gasser, Durfee, Demazeau, fin des années 80). Ainsi, l'Intelligence Artificielle Distribuée (IAD) a été créée sous le paradigne de la distribution des connaissances. On y traite des questions de communication entre agents, d'émergence et d'auto-adaptativité. Cette école est active mais non unifiée.

L'Intelligence Artificielle Située (IAS), proche de l'IAD, se fonde sur le postulat qu'un système intelligent ne doit pas fonder son comportement sur les raisonnements strictement abstraits effectués dans un système clos, mais doit agir et se comporter de façon à assurer sa survie dans son monde environnant. Son comportement est strictement en adaptation continue avec la représentation qu'il se fait de cet environnement considéré comme complexe (voir l'Umwelt de Jakob Von Uexküll, 1956(2)). L'accent est mis sur une relation organique entre l'agent (le système) et son monde.
Il s'agit dont à la fois d'un tournant vers l'adaptativité et aussi ver la corporéité des systèmes.

Dans cette approche, on retrouve la plupart des tenants des Systèmes Multi-Agents (SMA), en allant du traitement de la sélection de l'action à envisager (P. Maes(3),1990), à la génération de sous-buts pertinents (S. Franklin, Artificial Mind(4), MIT Press, 1997). On retrouve aussi certains tenants de la Vie Artificielle et de l'approche connexionniste qui se démarquent radicalement de la prépondérance du symbolique en privilégiant les interactions sensori-motrices pour la production des connaissances (Jean-Arcady Meyer(5)).
Ces chercheurs utilisent des réseaux récurrents et des systèmes dynamiques (Kelso, 1995) et se démarquent ainsi des connexionnistes traditionnels (école de Rumelhart et McClelland,1986(6), toujours bien active aujourd'hui). Les résultats obtenus sont des architectures de contrôle neuronales capables de générer des comportements adaptatifs simples (approche Animat). Cette approche est pluridisciplinaire, prenant ses modèles comportementaux en éthologie, biologie et psychologie, pour produire des résultats en robotique (principalement aux USA, au Japon, mais aussi en France ), en IA avec des modèles neuronaux correspondants à des processus cognitifs, et en Vie Artificielle.

La Vie Artificielle, qui est une école tumultueuse car regroupant des informaticiens, des mathématiciens, des biologistes, des automaticiens…, présente trois principaux axes d'études :
- auto-reproduction avec les automates cellulaires (ancien mais non abandonné),
- processus de développement avec morphogenèse et biomorphs
- évolution avec les algorithmes génétiques (adaptation d'un système à une classe de situations caractéristiques de l'état de son environnement).
Les recherches et surtout les résultats produits par les algorithmes génétiques (John Holland,1962(7), et une école aujourd'hui très active, avec des congrès nombreux) sont spectaculaires. Cette méthode -dont le principe est celui d'une recherche combinatoire dans un vaste espace d'états- nécessite cependant des calculs très lourds. De plus, les systèmes obtenus ne sont pas dynamiques.

* * * * * * * * * * * * * * * * *

L'IA se pose aujourd'hui des questions dites "philosophiques".
Elle dispose d'outils nombreux et relativement bien maîtrisés qui viennent de ses travaux : algorithmes génétiques, logiques non standards, réseaux de neurones, systèmes à règles de production, systèmes multi-agents… et de langages de programmation puissants avec de bons environnements de développement, les langages à objets (Java par exemple).
Si la discussion sur le test de Turing intéresse encore de nombreux chercheurs et permet de parler d'IA forte et d'IA faible, avec des variantes, elle ne semble hélas pas vouloir aller suffisamment au fond des choses : comment faisons-nous, nous les humains, pour interpréter une chose du monde pour qu'elle devienne une connaissance manipulable conceptuellement sous forme symbolique ?
Finalement, l'investigation philosophique reste très pauvre en IA, alors que la phénoménologie et l'herméneutique permettent de poser des hypothèses puissantes.

Il reste alors les applications, l'investigation d'autres disciplines avec la construction de simulateurs paramétrables et auto-adaptatifs leur permettant, à eux, de progresser. Et il reste la voie prometteuse de la robotique si la pluridisciplinarité s'y développe. Mais il nous semble qu'il sera difficile de conserver à l'IA un rôle moteur dans une informatique considérée comme science des modèles et systèmes calculables : 
- l'informatique se technologise de plus en plus et n'a pas vraiment l'ambition de se faire science,
- les spécialistes de l'IA semblent manquer  de projets comme en posaient les pères fondateurs de la discipline,
- la fréquentation d'autres disciplines demande une culture à la fois très vaste et très profonde, ce qui quelquefois décourage les jeunes chercheurs.


(1) Nouvelle IA trop souvent passée sous silence dans les ouvrages grand public publiés en français. Remonter d'où l'on vient
(2) Jakob von Uexküll  :"Streifzüge durch die Umwelten von Tieren und Menschen: Ein Bilderbuch unsichtbarer Welten", 1956.
En savoir plus sur Jacob von Uexküll : http://www.zbi.ee/~uexkull/cv.htm  Remonter d'où l'on vient

(3) Page d'accueil du site de Pattie Maes : http://pattie.www.media.mit.edu/people/pattie/  Remonter d'où l'on vient
(4)Voir http://www-mitpress.mit.edu/catalog/item/default.asp?sid=33FA27F7-F9F2-48A8-9D4C-008D4121C11B&ttype=2&tid=8097  Remonter d'où l'on vient
(5) Voir notre interview : http://www.automatesintelligents.com/interviews/2000/nov/mayer.html Remonter d'où l'on vient
(6) Voir notamment : "Parallel Distributed Processing: Explorations in the Microstructure of Cognition", D.E. Rumelhart and J.L. McClelland., volume 1 et 2. MIT Press, 1986 et 1987 : http://www-mitpress.mit.edu/catalog/item/default.asp?sid=F776379A-0B61-4DB6-BECB-8F01EB9A9010&ttype=2&tid=7754 Remonter d'où l'on vient
(7) "Outline for adaptative systems with programs roving cellular computer", 1962.John Holland a modélisé des systèmes adaptatifs avec ce qui allait devenir les "algorithmes génétiques", et qui a débouché sur la publication du livre fondateur "Adaptation in Natural and Artificial Systems", Ann Arbor, Univ. of Michigan Press, 1975.
- Concernant les algorithmes évolutionnaires, voir notre interview de Pierre Collet
Remonter d'où l'on vient

Voir aussi notre précédente fiche sur l'Intelligence Artificielle


Retour au sommaire