Retour au sommaire
Article
Vers
un devenir post-humain ?
par
Alain De Neve,
Analyste de défense (Réseau multidisciplinaire
en études stratégiques)
23 juillet 2005 |
Le
11 mars 2005, le géant mondial de l'informatique, IBM
Corp., annonçait publiquement la mise en service officielle
de son supercalculateur de dernière génération,
plus connu sous le nom de Blue Gene/L, originellement destiné
à la recherche nucléaire. Démarré
dans le courant de l'année 1999, le projet de développement
d'un nouveau système d'intelligence synthétique
s'inscrivait alors dans une course généralisée
pour l'accroissement des puissances et vitesses de calcul
des superordinateurs. Dans l'état actuel - –
et somme toute provisoire - – des développements
technologiques intervenus dans ce secteur, Blue Gene/L, avec
ses quelques 70,72 teraflops[1]
(soit 70 trillions d'opérations à la
seconde (virgule flottante[2]),
se situe en tête de file des mastodontes cybernétiques
que compte notre planète. Le dernier né d'IBM
devance ainsi le Sillicon Graphics de l'Université
de Columbia et le Earth Simulator japonais. Récemment,
les capacités de calcul de Blue Gene/L ont doublé,
portant ainsi sa puissance à quelques 135 teraflops.
Les spécialistes pensent qu'une capacité de
calcul de près de 250, voire de 360 teraflops constitue
une hypothèse envisageable dans un proche avenir.

Figure
1 : Blue Gene/L, machine cybernétique, démultipliera
nos connaissances de l'Homme et de la vie. (source : http://www.ibm.com)
Inévitablement,
l'occurrence de cette nouvelle percée technologique
nous invite à nous interroger - et cet article n'a
d'autre ambition - sur le potentiel de croissance future des
supercalculateurs. Surtout, l'extension apparemment sans limite
des systèmes cybernétiques pose une question
éthique fondamentale quant au devenir de l'homme, si
tôt que celui-ci cessera d'être unanimement considéré
- peut-être est-ce déjà le cas –
comme l'être le plus intelligent - mais encore faut-il
s'entendre sur une telle notion - existant sur cette Terre.
H«
0 »mme = « 1 »formation ?
L'ensemble
de ces questionnements, que d'aucuns qualifieront de fantaisistes
ou seulement dignes d'un médiocre scénario de
science fiction, est pourtant porté par un courant
académique de plus en plus prégnant au sein
de la sociologie. L'école de pensée de la post-humanité
- tel est le label qui lui a été attribué,
parfois sans réel égard aux tendances singulières
qu'il peut inclure – appelle à la nécessité
d'une réécriture radicale des conceptions sociologiques,
éthiques, politiques et culturelles qui régissent
actuellement le rapport de l'homme avec lui-même et
à la machine. Dans une approche techno-ontologique,
un auteur tel que McLuhan n'hésita pas, par exemple,
à considérer les médias électroniques
comme une pure et simple extension artificielle du système
nerveux humain. L'enveloppe charnelle de l'homme étant,
dès lors, considérée comme une coquille
vide (empty shell) dont l'existence ne vaut que par l'information
qui transite par son biais. Ces considérations ont
été, récemment, portées à
des conceptions plus extrêmes telles celles développées
par Raymond Kurzweil persistant à démontrer
(avec un calendrier pré-établi, s'il vous plaît
!) l'inéluctabilité du dépassement de
l'intelligence humaine par les machines, mais également
la possibilité pour l'individu de télécharger
à l'avenir tout son « être » sur
un ordinateur (l'ADN pouvant être, selon Kurzweil, l'équivalent
biologique d'une base de données informatiques dont
la retranscription synthétique ne serait qu'une question
de temps !). A ce propos, il est intéressant de noter
qu'aux Etats-Unis, la résorption des déséquilibres
psychiques des soldats de retour d'Irak puisse être
envisagée au travers d'une immersion des sujets dans
un « Irak virtuel », soit un environnement artificiel
généré par ordinateur afin de permettre
aux spécialistes du trouble du comportement de circonscrire
le phénomène pathologique par une confrontation
des informations subjectives intégrées par le
sujet aux informations objectives, brutes issues du milieu
dans lequel le soldat dut combattre[3].
Le sujet n'est ici perçu que comme un condensé
informationnel qu'il s'agit de replacer dans son contexte
de données sources.
Le
substrat socio-historique
Mais
comment expliquer l'engouement technophile dans lequel semble
occasionnellement verser la post-humanité ? Loin des
considérations parfois futuristes qui viennent d'être
énoncées, Richard Hofstadter, s'attache à
expliquer le substrat socio-historique sur lequel se fonde
en la matière la dynamique de recherche technologique
spécifique d'une nation telle les Etats-Unis. On découvre
dans ce qu'il nomme le « style paranoïde de la
politique américaine » les raisons historiques
qui, depuis la Seconde Guerre mondiale, ont conduit les Américains
à accepter le principe d'un recours croissant à
l'aide apportée par la machine en matière décisionnelle[4].
C'est la méfiance du peuple américain vis-à-vis
des conseillers de la Couronne britannique - à l'origine
de la Révolution américaine - qui semble avoir
participé à la persistance enfouie d'une légitime
suspicion vis-à-vis de ceux qui sont appelés
à les représenter. Avec la fin de la guerre
froide, l'environnement complexe des relations internationales
a renforcé l'idée selon laquelle la technologie
pourrait s'avérer un outil analytique plus neutre et
objectif que l'homme. De ce sentiment dont les racines se
situent dans l'inconscient collectif américain - ou
supposé tel -, découle la volonté d'exploiter
de façon maximale les technologies informationnelles
dans une grande variété de secteurs, allant
de l'enseignement en ligne à la gestion des conflits
en passant par l'administration financière et économique.
Mais on ne saurait trop insister, comme le suggère
Dominique Lecourt, sur l'origine fondamentalement occidentale
du débat, notamment à travers la rupture baconnienne,
fondatrice d'une notion de progrès - passant par la
domination de la nature - désormais prégnante
tant aux Etats-Unis qu'en Europe. Le discours a seulement
ceci de particulier aux Etats-Unis qu'il agite un certain
nombre de conceptions religieuses propres au débat
sociopolitique américain.
Cette
approche socio-historique du débat post-humaniste est,
à dire vrai, rassurante. Elle rappelle à qui
l'aurait oublié que la technique constitue une réification
de choix sociaux et politiques et, sans doute, comme le suggère
Herbert Marcuse, une forme de pouvoir[5].
La technique n'est donc pas neutre, et l'on ne saurait imaginer,
sauf à concevoir l'occurrence d'une rupture technologique
fondamentale remettant en cause nos définitions de
l'ergonomie, l'idée d'une complète autonomisation
de la machine dans les sphères investies par l'action
humaine. Une sociologie propre aux machines, bien que l'évocation
du thème paraisse séduisante à plus d'un
titre, demeure improbable. Il reste à examiner si elle
s'avère réellement impossible sur un plan théorique
– chose que tente de démontrer John Haugeland[6].
Figure
2 : Les univers générés par ordinateurs
constitueront-ils, demain, les environnements symbiotiques
où se marieront l'Homme et la machine? (source : Georgia
Institute of Technology – Environmentally Conscious
Design and Manufacturing Program - http://www.marc.gatech.edu).
Une
vision symbiotique de l'homme et de la machine ?
La
prudence ne saurait, cependant, justifier l'abandon de la
poursuite des recherches et des innovations, à condition
qu'elle ne se transforme pas en une fuite en avant. Le développement
de systèmes cybernétiques poussés présente,
en effet, des perspectives intéressantes – mais
non exclusives d'autres formes d'approches - dans notre entendement
de la Vie et de l'Homme. Blue Gene/L, par exemple, sera orienté
vers des applications scientifiques de première importance,
dont la recherche biologique (étude des protéines)
ou la simulation climatique. Sa puissance de calcul démultipliera
nos connaissances scientifiques à un rythme auquel
l'homme n'aurait jamais pu auparavant rêver. Ce sont
également nos perceptions et visions du monde qui pourraient
être durablement altérées par l'émergence
des supercalculateurs. L'homme évolue dans un univers
essentiellement visuel, limité par ses sens à
certaines catégories de fréquences. La technologie
nous permet d'étendre et de compléter nos manières
de percevoir. Il nous faudra, à n'en pas douter, repenser
l'ergonomie homme/machine et répondre à la question
fondamentale : qui de l'homme ou de la machine apprendra désormais
le plus de l'autre ? La réponse à cette question
peut sans doute s'inspirer des écrits de Paul Watzlawick,
thérapeute et professeur à l'Université
de Stanford, qui, en retraçant les tentatives répétées
de scientifiques américains visant à apprendre
au chimpanzé le langage humain, n'en soulignait pas
moins que c'était le singe qui se révélait
capable d'adopter le langage de l'homme – et témoignait
de la sorte des aptitudes les plus étonnantes, tandis
que l'humain se montre inapte à comprendre naturellement
le langage de son cousin primate. De cette illustration, Watzlawick[7]
pose une double interrogation cruciale : « combien de
notre propre potentiel utilisons-nous réellement ?
Quels éducateurs surhumains pourraient nous aider à
le mieux développer ? » Et si ces éducateurs
de demain étaient post-humains ?...
--------------------------------------------------------------------------------
Notes
:
[1] Telle
est la capacité originelle annoncée officiellement.

[2]
Vitesse
de codage et de stockage des nombres réels en informatique.
Ce système de codage doit permettre aux ordinateurs
de traiter rapidement ces nombres. 
[3]
Emmanuelle Richard, « La réalité
virtuelle, potion du réel », Libération,
2 avril 2005. 
[4]
Richard Hofstadter, The Paranoid Style in American
Politics and Other Essays, New York, Random House, 1965, cité
dans Desmon Saunders-Newton & Harold Scott, “”But
the Computer Said!” – Credible Uses of Computaional
Modeling in Public Sector Decision Making”, Social Science
Computer Review, volume 19, numéro 1, printemps 2001,
pp. 47 – 65. 
[5]
Herbert Marcuse, L'homme unidimensionnel¸ Paris,
Les Editions de Minuit, 1968.
[6]
John Haugland, L'esprit dans la machine. Fondements de l'intelligence
artificielle, Paris, Odile Jacob, 1989. 
[7]
Paul Watzlawick, La réalité de la réalité.
Confusion, désinformation, communication, traduit de
l'anglais (Etats-Unis) par Edgar Roskis, Paris, Seuil, Coll.
Points/Essais, 1978.
Retour au sommaire