Retour
au sommaire
Automates
Intelligents s'enrichit du logiciel
Alexandria.
Double-cliquez sur chaque mot de cette page et s'afficheront
alors définitions, synonymes et expressions
constituées de ce mot. Une fenêtre déroulante
permet aussi d'accéder à la définition
du mot dans une autre langue (22 langues sont disponibles,
dont le Japonais). |
Science
et politique. IJCAI.
Les machines intelligentes deviendront-elles hostiles à
l’homme?
par
Jean-Paul Baquiast et Christophe Jacquemin - 29/07/2009
On
pourrait penser que les principales menaces pesant sur nos
sociétés viennent des hommes eux-mêmes,
ou d’organismes biologiques tels que les virus. Mais
les chercheurs en intelligence artificielle (IA) en ajoutent
d’autres, celles qui pourraient provenir de machines
intelligentes devenues vicieuses ou hostiles.
C’est principalement dans la communauté scientifique
américaine que ce thème trouve de l’écho.
Une raison évidente en est l’avance certaine
que les laboratoires et industries de ce pays possèdent
en matière de systèmes robotisés autonomes
de sécurité et de défense. Comme nous
l’avons indiqué dans des articles précédents,
ce secteur constitue pour les Etats-Unis une nouvelle frontière
technologique, financée par des budgets militaires
très importants. Le lobby militaro-industriel s’y
investit dorénavant tout autant qu’il l’avait
fait précédemment dans l’aviation de combat,
les missiles et les satellites. On peut donc en parler non
comme d’objets futuristes mais comme de réalités
pénétrant de plus en plus profondément
la vie quotidienne. Or beaucoup de drones robotisés
militaires paraissent aujourd’hui sur le point d’échapper
aux contrôles des humains, du fait de leur complexité.
Dans un premier temps, ils multiplieront alors les «dégâts
collatéraux».
Mais la peur d’une guerre possible avec les machines
intelligentes traduit aussi, diront certains, l’angoisse
d’une civilisation tout entière qui croit voir
s’effondrer ou se retourner contre elle ce sur quoi
elle pensait assurer son empire : le libéralisme, la
concurrence, la banque…La technologie de pointe, loin
de demeurer un recours, ne va-t-elle pas à son tour
devenir un ennemi de l’intérieur ?
Quoi qu’il en soit, il est bon que ceux qui s’intéressent
à l’avenir de l’IA, pas seulement aux Etats-Unis,
mais aussi en Europe ou dans d’autres grands pays, réfléchissent
à ce que pourra produire dans un proche avenir l’interaction
entre les machines intelligentes et les humains, y compris
ceux considérés comme des criminels ou des terroristes.
Pour nous, il s’agit d’un thème essentiel.
Nous avons indiqué dans divers articles précédents
qu’il s’inscrit dans la réflexion sur le
concept de système anthropotechnique. Ce concept ne
distingue plus l’humain de la technologie mais étudie
de façon globale le produit de leur symbiose. Dans
le cadre des liens « durs » entre humains et entités
artificielles, celles-ci devenant de plus en plus autonomes
et capables de formes de conscience surpassant souvent celles
des humains « traditionnels », il faut s’attendre
à voir se développer des êtres mixtes,
tenant à la fois du post-humain et de la machine intelligente,
dont l’impact sur l’évolution de la vie
terrestre ne devrait pas être sous-estimé. Mais
dans de tels systèmes, convient-il d’envisager
des conflits internes entre les composants biologiques et
les composants artificiels, plutôt que la réalisation
de synergies prometteuses ?
Le point de vue de l’AAAI
Les 25 chercheurs, roboticiens, enseignants et juristes
qui viennent de se réunir sous les auspices de l’Association
for the Advancement of Artificial Intelligence (AAAI)
à Menlo Park, Californie, n’ont pas tranché
cette question. Ils se sont surtout efforcés de faire
le point sur les progrès récents enregistrés
dans le domaine des systèmes capables de générer
des consciences artificielles, sans donner à ce dernier
terme de définitions trop précises. Les applications
les plus apparemment inoffensives, dans le domaine de l’assistance
aux activités ménagères ou aux soins,
comme dans celui de la navigation dans des environnements
complexes, ont été les plus discutées.
Mais les participants n’ont pas dissimulé le
fait que, grâce à des progrès décrits
comme accélérés et convergents, les machines
prendront de prendront de plus en plus d’initiatives
propres, dont certaines, par la négligence des humains
utilisateurs, pourront se retourner contre ces derniers. Quelles
conséquences sociales, favorables ou inquiétantes,
faudra-t-il en attendre ?
Le groupe présidé par Eric Horvitz, président
de l’AAAI et chercheur émérite chez Microsoft
Research, a commencé par travailler en petites équipes
distribuées, puis pour un week end à Asilomar
(Californie). Les conclusions finales viennent d’être
présentées le 15 juillet à l’International
Joint Conference for Artificial Intelligence (IJCAI)
à Pasadena, Californie,
Si tous les participants s’accordent pour penser que
des systèmes intelligents conscients, aux capacités
supérieures à celles des hommes, apparaîtront
un jour, le délai à prévoir varie selon
les estimations, de 20 à 1.000 ans…ce qui parait
long au regard des prévisions faites les années
précédentes. Le concept de « singularité
», bien connu des spécialistes de l’IA,
désignant un emballement subi des performances des
« smart machines » lequel entraînerait
des développements aujourd’hui par définition
imprévisibles, a laissé les participants sceptiques.
Ceci tient au fait qu’aucune IA ne vise encore à
réaliser une intelligence générale
analogue à celle des humains. Les objectifs se limitent
à l’amélioration de créneaux
spécifiques où, il est vrai, les performances
des machines dépassent déjà celles
des organes sensoriels et moteurs d’origine biologique.
Beaucoup plus évoqués pour le court terme
ont été les risques venant de logiciels ou
produits malveillants (malware) simulant les comportements
des humains au sein des réseaux : vol d’identités,
implantation de virus sur les téléphones portables
qui imiteraient à leur insu la voix et les comportements
des légitimes utilisateurs tout en donnant accès
à leurs codes sécurisés. Ces virus
pourraient agir à cette fin de façon autonome,
sans être guidés en permanence par des acteurs
humains malveillants. Si les criminels peuvent réaliser
de tels virus, ils le feront, et rapidement, a annoncé
Tom Mitchell de la Carnegie Mellon University à Pittsburgh,
Pennsylvanie, en faisant allusion aux gros investissements
de recherche que réalisent déjà en
ce but les syndicats du crime organisé.
Les chercheurs ont convenu que la complexité des
smart-phones est devenue telle qu’ils hébergent
des milliers de lignes de code susceptibles d’être
détournés par des malveillants sans que personne
ne s’en aperçoive avant que le dommage ne soit
accompli. Peter Szolovits, du Massachusetts Institute of
Technology, considère que les ingénieurs sont
en train de créer des systèmes si complexes
et opaques qu’eux-mêmes n’y comprennent
plus rien. Il serait de leur responsabilité d’y
réfléchir, afin d’éviter les
risques ainsi évoqués. Ceux-ci sont bien plus
réels que celui de voir l’Internet devenir
conscient et malveillant, comme certains l’avaient
prédit les années précédentes.
Pour
en savoir plus
* voir l’article du NY Times "
Scientists Worry Machines May Outsmart Man "
* A étudier en détail : International Joint
Conference for Artificial Intelligence :
http://ijcai-09.org/