Apport de l'intelligence artificielle distribuée
pour la gestion d'un PC de crise

retour au sommaire gestion des risques

3 pages

Par jean-paul.baquiast@wanadoo.fr et  alain.cardon@lip6.fr

25-10-01

Les deux articles théoriques  d'Alain Cardon que nous joignons au présent dossier(1) décrivent la façon dont des systèmes multi-agents instables, évolutifs et adaptatifs peuvent être construits en utilisant une méthode d'agentification incrémentielle à partir de fonctionnalités distribuées dans les comportements des agents. Que signifie cette formulation ésotérique pour un non-spécialiste de l'Intelligence Artificielle distribuée (IAD) ?

Rôle et organisation d'un PC de crise

Il faut se replacer dans la perspective de réalisation d'un Poste de Commandement (PC) de préfecture pour la prévention des risques et la gestion des catastrophes au niveau départemental, qui fait l'objet d'une autre note du présent dossier (non mise en ligne). Un tel PC est conçu pour mettre à la disposition de l'autorité en charge de la coordination et du commandement les informations lui permettant d'assurer sa mission, à partir de ce que l'on appelle généralement un SIC (Système d'information et de communication) . Ces informations sont fournies par les divers acteurs participant au système d'ensemble de prévention des risques et de gestion des catastrophes : entreprises industrielles, entrepôts, sites à risque recensés dans la zone concernée, administrations dépendant de l'Etat ou des collectivités locales ayant des missions de contrôle, prévention et intervention, associations citoyennes et éventuellement médias. La plupart de ces acteurs disposent eux-mêmes, en interne, de PC locaux et de SIC reproduisant à une échelle différente le dispositif d'ensemble.

Les informations concernées sont de deux natures. Les unes concernent le contrôle et la prévention. Elles sont là pour permettre au PC, en situation normale, de s'assurer que les contrôles prévus s'exécutent normalement et qu'aucun événement perturbant n'est détecté. Les autres interviennent au contraire lorsqu'une crise apparaît. Elles ont de nombreuses fonctions : alerter, déclencher des parades, assurer la liaison avec les éléments d'intervention, etc.

Dans ces deux cas, les informations utilisées adoptent plusieurs supports. En période de veille, il s'agira surtout de données fournies par des capteurs, caméras de surveillance  ou d'identification et systèmes permettant de vérifier le caractère nominal des paramètres de contrôle. En période de crise, les informations se diversifieront considérablement, les unes prévues à l'avance et les autres résultant de l'improvisation, si l'ampleur de la crise déborde les limites prévues. Il s'agira de messages d'alerte (sirènes de confinement ou autres), d'appels téléphoniques ou VHF visant à informer ou demander des instructions, d'ordres émis par les autorités en charge.

L'instauration du désordre

L'expérience montre qu'avec des technologies et méthodes classiques, de nombreuses défaillances peuvent se produire. En phase de veille, des paramètres risquent d'échapper au personnel en charge (par exemple échauffement anormal d'un réservoir, intrusion d'une personne non habilitée, etc.). Mais c'est surtout en phase de crise que le désordre s'installe. Les réseaux de communication peuvent se trouver saturés (quand ils ne sont pas détruits) les messages s'enchevêtrent et peuvent se contredire, introduisant délais et risques induits, le commandement ne dispose plus des éléments de synthèse lui permettant de jouer son rôle. On ajoutera sans y insister que les résistances à la coopération des divers acteurs, résistances considérables même dans la perspective de risques graves, ne facilitera pas le travail du commandement.

Pour prévenir ceci, deux mesures sont nécessaires. Il s'agira d'une part de renforcer (dupliquer ou tripliquer) les systèmes de veille, de communication et d'intervention. Mais là on se trouve vite arrêté par l'ampleur des moyens à déployer. La seconde mesure consistera à superposer au système humain et technologique constituant le SIC principal et les SIC répartis sur les sites, un outil de gestion faisant appel à l'IAD, comme décrit dans les notes précitées. Ceci peut se faire à peu de frais et se trouver utilisable et rentable tout de suite, une fois les personnels convenablement formés. Par ailleurs, les différences ou oppositions culturelles entre acteurs pourront être prises en compte sans paralysie du système d'ensemble.

Installation d'un système multi-agents

Comment cela pourra-t-il se traduire en pratique? Pour simplifier, disons qu'il conviendra de transformer les différentes informations émises par les différents acteurs énumérés ci-dessus (données provenant de capteurs, messages échangés, etc. ) en " agents " susceptibles de constituer un système multi-agents (massif car ces informations peuvent se compter par centaines). L'" agentification " de ces informations ne posera qu'un problème d'organisation. Il faudra dès qu'une information sera émise la capturer et l'introduire dans le SIC/IAD (Système d'information et de communication faisant appel à l'intelligence Artificielle distribuée) sous une forme normalisée prédéfinie a minima lui permettant de communiquer avec les autres. Il y aura saisie automatique de données de capteurs ou de contenus de messages, mais aussi si besoin était saisie humaine décentralisée (2). Ceci veut dire qu'en cas d'urgence, les messages téléphoniques émis, supposons-le, par une brigade de sapeurs-pompiers, devront voir leur contenu introduit sous une forme synthétique dans le réseau par un préposé en charge au sein de cette brigade. On objectera que cela représentera une certaine contrainte, pouvant ralentir certaines opérations, mais ce sera le prix à payer pour éviter des catastrophes induites par l'incohérence des informations échangées ou des mesures décidées sans consultation.

Ceci supposé réalisé y compris dans la perspective d'une crise s'aggravant de minute en minute, le commandement se trouvera en face d'une véritable intelligence artificielle l'aidant dans ses décisions en s'adaptant en permanence à l'évolution de la situation. Il sera dans la situation du pilote d'un avion moderne qui dispose de quelques visuels intégrateurs lui permettant de contrôler indirectement des centaines de paramètres de vol - à la différence que jusqu'à ce jour, sauf erreur, les systèmes de pilotages assistés utilisés dans l'aéronautique ne sont pas évolutionnaires, ce qui ne serait pas le cas dans l'hypothèse des SIC/IAD proposés ici.

L'amorce d'une véritable conscience artificielle

Comme le montrent les notes, et comme l'ont vérifié quelques cas pratiques (voir la thèse de F. Lesage présentée par ailleurs) la solution proposée constitue le prototype d'un véritable système de conscience artificielle, qui se met au service du commandement. Le mot ne doit pas faire peur. Il signifie simplement que le système acquiert en effet une certaine représentation de lui-même dans son environnement, qu'il est capable de modifier en fonction de l'évolution de celui-ci. Les informations en entrée " agentifiées " jouent le rôle d'observateurs de l'environnement. Ils sont appelés " agents aspectuels " par A. Cardon. Mais l'organisation qu'ils constituent, instable et évolutive, est observée par d'autres agents, appelés agents morphologiques, qui décrivent le système en train d'émerger et qui modifient son organisation dans une boucle d'autocontrôle.

Pour prendre un exemple simple, si de l'interaction entre messages à l'entrée apparaît une contradiction entre l'action de deux acteurs, par exemple le Samu et les sapeurs-pompiers, cette contradiction se manifestera par une anomalie (appelée dans les notes une saillance) que les agents morphologiques, observateurs du système détecteront, évalueront et tenteront de résoudre par une réorganisation du système. L'anomalie pourra être signalée par un message particulier au commandement, qui aura la possibilité de la résoudre lui-même, avec en conséquence l'entrée dans le système d'un nouvel agent contribuant lui-aussi à la réorganisation adaptative de l'ensemble.

On voit que ce dispositif pourra gérer en temps quasi-réel un grand nombre de message, signaler et le cas échéant résoudre un grand nombre de problèmes, bien au-delà des capacités d'un commandement livré à ses seuls moyens d'information et de décision.

Conditions de mise en oeuvre

La contrepartie de ces avantages, qui est aussi d'ailleurs un avantage, est que, comme nous l'avons dit, le système d'ensemble (modification du nombre des agents, de leurs structures, de leurs capacités de communication du fait du fonctionnement même du système) n'est pas compatible avec une spécification fine faite a priori ni avec une prédiction fine du comportement du système. Le commandement humain devra apprendre à " jouer " avec un système disposant d'une certaine indépendance dans l'adaptation évolutive, dont il devra tirer le meilleur.

Ajoutons que le système une fois mis en place, le nombre des agents aspectuels et morphologiques pourra s'accroître sans limitations précises, en fonction de l'expérience. Le système deviendra ainsi plus réactif et plus performant, par apprentissage. D'où l'importance d'exercices réguliers visant à augmenter aussi bien les performances des hommes impliqués dans le système que les capacités de l'Intelligence Artificielle déployée. Plus généralement, tant qu'un système multi-agents sur le modèle décrit ici n'aura pas été déployé en vraie grandeur, avec de vrais acteurs, et testés dans des situations proches du réel, il sera difficile de juger effectivement de ses capacités au service de la gestion des risques majeurs.


1) Voir notes jointes
2000 Etude de la conception et du contrôle comportemental d'une organisation massive d'agents. (Article scientifique 60 pages pdf) par Alain Cardon
1997 Modélisation de la couche communicationnelle d'un Service d'Information et de Communication (SIC)  civil coopératif (note scientifique 20 pages pdf ) par Alain Cardon
2) Ce qui supposera évidemment une infrastructure distribuée de télécommunication entre acteurs aussi efficace et protégée que possible.


http://www.admiroutes.asso.fr/action/theme/risque/pc1.htm
droits de diffusion
retour au sommaire gestion des risques