Vers le site Automates Intelilgents
La Revue mensuelle n° 105
Robotique, vie artificielle, réalité virtuelle

Information, réflexion, discussion
logo admiroutes

Tous les numéros


Archives
(classement par rubriques)

Image animée
 Dans La Revue
 

Retour au sommaire

Automates Intelligents s'enrichit du logiciel Alexandria.
Double-cliquez sur chaque mot de cette page et s'afficheront alors définitions, synonymes et expressions constituées de ce mot. Une fenêtre déroulante permet aussi d'accéder à la définition du mot dans une autre langue (22 langues sont disponibles, dont le Japonais).

Article
Church, un programme d'IA développé au MIT qui combine les règles et les probabilités

par Jean-Paul Baquiast 09/04/2010

Spéculations boursières et Intelligence Artificielle (IA)

Nous avions appris dans notre jeunesse (les années 1960/70) que les systèmes experts à base de règles allaient révolutionner l'Intelligence Artificielle (IA) en mettant la puissance des machines au service de l'expertise humaine. C'est de cette façon, avait-on affirmé, que fonctionne l'esprit humain. Il produit des inférences logiques. Si l'on me dit que les oiseaux volent et que le pigeon est un oiseau, j'en conclus que le pigeon vole. Sur cette base, des systèmes experts à base de très nombreuses règles avaient été élaborés, en interrogeant des experts humains dont les connaissances étaient « mises en machine ». Des moteurs d'inférence permettaient d'appliquer les règles mémorisées dans le système aux nouveaux cas posant question. Les experts humains pouvaient ensuite prendre leur retraite....

En fait, si de petits systèmes experts très simples ont été développés et implémentés dans de nombreuses applications, par exemple dans les moteurs de recherche sur internet, les développeurs de grands systèmes experts ambitieux ont du renoncer devant la complexité des inférences qu'ils devaient programmer. Un système entièrement déclaratif, comme un système expert, se heurte vite en effet (à supposer que l'on ait disposé d'experts humains disponibles) au trop grand nombre des connaissances et métaconnaissances à gérer, faute d'un dispositif d'amorçage permettant au système lui-même de prendre en charge la résolution des problèmes qu'il doit résoudre. Reprenons l'exemple de l'oiseau. Un pingouin est un oiseau, mais il ne vole pas. Il faut donc compliquer la règle de départ. Un pigeon en cage est un oiseau qui vole mais il ne peut pas voler: autre nouvelle règle à prévoir. Certains défenseurs de la démarche initiale, tel le français Jacques Pitrat
(voir notre article http://www.automatesintelligents.com/interviews/2001/nov/pitrat.html ) ont persisté dans la démarche et pensent avoir réalisé de véritables cerveaux artificiels capables de résoudre une grande variété de problème. Jacques Pitrat s'en explique d'ailleurs de façon très convaincante dans son dernier livre Artificial Beings - The conscience of a conscious machine ISTE, Wiley, Mars 2009 en présentant un robot expert devenu pour lui, dans le domaine notamment des mathématiques, un véritable partenaire sinon un ami.

Mais d'une façon générale, les cogniticiens, devant ces difficultés, ont redécouvert ce que chacun d'entre nous connaît intuitivement: le raisonnement humain applique rarement des règles précises, sur le mode du syllogisme. Il travaille par approximation, autrement dit de façon probabiliste. La grande majorité des oiseaux volent. Si vous me dites que le pigeon est un oiseau, il y a de fortes probabilités qu'il vole aussi, mettons 99%. Cependant, si vous me faites remarquer que les oiseaux en cage ne volent pas, j'en conclue que mon évaluation est trop optimiste et je la réduis pour tenir compte du nombre des oiseaux en cage ou bien de ceux qui sont empêchés de voler pour telle ou telle raison. Plus je rencontrerai de cas où des oiseaux ne volent pas (du fait par exemple qu'ils n'ont pas d'ailes, ou qu'ils sont trop lourds pour cela), plus je diminuerai en esprit les chances que tel pigeon dont vous me parlez puisse effectivement voler. Intuitivement, j'abaisserai la probabilité qu'il le fasse à ...mettons 95%. Ainsi pourrais-je, sans effort mentaux excessifs, tenir compte de la grande diversité du monde réel.

Ce faisant mon cerveau ne cherchera pas à recenser à l'avance tous les cas existant dans le monde d'oiseaux incapables de voler, afin d'obtenir un ratio aussi précis que possible. Il attendra que l'expérience me mette en présence de cas m'obligeant à modifier le calcul de probabilité auquel je me réfère intuitivement pour estimer les chances qu'un oiseau inconnu de moi puisse ou non voler. Les erreurs que je pourrais faire auraient un côté bénéfique puisqu'elles me forceraient à préciser mes méthodes d'évaluation. Les neuroscientifiques disent que les cerveaux animaux et humains procèdent systématiquement de cette façon quand ils font des prédictions sur le monde. Le cerveau s'appuie au cas par cas sur une moyenne des expériences déjà enregistrées et la corrige si de nouvelles expériences se révèlent non compatibles avec cette moyenne. On parle de « cerveau bayésien ». Voir à ce sujet notre article « le cerveau bayésien ». http://www.automatesintelligents.com/echanges/2008/dec/conscience.html#s6

L'intérêt de cette procédure, en matière d'IA, est qu'elle est relativement facile à mettre en oeuvre. Le cerveau d'un robot fonctionnant sur le mode bayésien modifie ses câblages en fonction des réponses que l'environnement donne aux hypothèses qu'il formule, exactement d'ailleurs comme le fait le cerveau d'un jeune enfant dans le cadre du darwinisme neural proposé par Gerald Edelman. Pratiquement tous les systèmes experts nouvelle manière (on ne parle plus d'ailleurs de systèmes-experts) déployés par les dispositifs intégrant de l'IA procèdent ainsi, par exemple pour la reconnaissance des formes ou de la voix.

Il était inévitable cependant que certains inventeurs proposent de conjuguer dans un même système l'expertise solide à base de règles, quand elle peut être obtenue, avec l'approche souple permise par l'approche probabiliste. La revue du MIT citée en référence (voir note ci dessous) nous apprend que c'est précisément ce qu'a voulu faire Noah Goodman, chercheur en sciences cognitives au sein du Computer Science and Artificial Intelligence Laboratory du MIT. Il a développé un programme nommé Church, non pas en hommage à l'Eglise presbytérienne mais au logicien américain Alonzo Church. Ce programme utilise des règles d'inférences, mais celles-ci sont probabilistes, autrement dit adaptables compte tenu de l'expérience. Dans le cas du pigeon précité, il procédera à peu près comme le cerveau humain décrit ci-dessus. Partant de la règle de base que les oiseaux volent, plus il rencontrera d'oiseaux qui ne peuvent pas voler, moins facilement il pronostiquera que tel oiseau qu'il ne connait pas puisse voler. Church permet, selon ses inventeurs, de réaliser des systèmes-experts de nouvelle génération avec une grande facilité, y compris quand il s'agit d'apprécier non pas des évènements pouvant être dénombrés, mais des phénomènes beaucoup plus qualitatifs.

L'article du MIT cité ne le précise pas, mais il est évident qu'un tel logiciel trouvera, s'il ne l'a pas encore fait, beaucoup de clients chez les spéculateurs et autres traders. Aujourd'hui par exemple, Church serait très utile pour prédire les chances que la Grèce puisse rembourser sa dette à 7% d'intérêt, et les chances de gain que pourraient obtenir ceux pariant soit à la baisse soit à la hausse des bons du trésor grec.

L'inconvénient de Church est qu'il est encore très peu optimisé et consomme des ressources en machines prohibitives. Mais il devrait s'agir d'un mal de jeunesse. Est-on pour autant à l'aube, comme le laisse entendre le titre de l'article, d'une Grande Théorie Unifiée de l'AI (expression d'ailleurs suggérée précédemment par ce même MIT)? Certains en doutent, en affirmant que la science du cerveau n'a pas encore révélé tous les secrets du fonctionnement de cet organe, et que par conséquent l'IA et le MIT avec elle ont encore beaucoup à apprendre.

Pour en savoir plus
*
L'article du MIT (lire aussi les commentaires, très riches)
http://web.mit.edu/newsoffice/2010/ai-unification.html
* Le Churchwiki http://projects.csail.mit.edu/church/wiki/Church

Retour au sommaire