Vers le site Automates Intelilgents
La Revue mensuelle n° 87
Robotique, vie artificielle, réalité virtuelle

Information, réflexion, discussion
logo admiroutes

Tous les numéros


Archives
(classement par rubriques)

Image animée
 Dans La Revue
 

Retour au sommaire

Automates Intelligents s'enrichit du logiciel Alexandria.
Double-cliquez sur chaque mot de cette page et s'afficheront alors définitions, synonymes et expressions constituées de ce mot. Une fenêtre déroulante permet aussi d'accéder à la définition du mot dans une autre langue (22 langues sont disponibles, dont le Japonais).

Philosophie des sciences
De l'évolution et de l'émergence
par Jean-Paul Baquiast 03/03/2008

Le journaliste scientifique Philippe Petit a consacré quatre séances de sa série Science et conscience, en février 2008 sur France Culture, au thème de l'émergence. Celui de l'évolution lui est indissociablement lié. Les contributions des scientifiques et philosophes interrogés nous donnent l'occasion, pour notre part, de tenter une synthèse, non pas des interventions, mais de certaines des acceptions données (selon nous) à ces deux concepts. Nous essaierons, au regard de ces acceptions, de nous représenter l'évolution du monde tel que ce monde nous apparaît, depuis les premiers événements décrits par le Big Bang jusqu'au développement contemporain, sur Terre, de systèmes dits artificiels capables de performances jusque là considérées comme spécifiques de la vie et du cerveau humain dit conscient.

Ce travail, dans la ligne éditoriale de notre revue, devrait nous permettre de justifier une hypothèse souvent présentée ici, selon laquelle la prolifération de ces systèmes artificiels, capables d'entrer en symbiose ou en conflit avec les organismes vivants actuels, constituera un événement majeur du XXIe siècle - si d'ici là nos civilisations ne s'effondrent pas. En fonction de la définition que nous nous donnerons de l'évolution et de l'émergence, nous pourrons considérer les systèmes artificiels comme une suite logique de l'évolution multi-millénaire des systèmes physiques et biologiques terrestres, autrement dit une péripétie locale n'imposant pas de rupture épistémologique. Au contraire, nous pourrions penser que ces systèmes artificiels, notamment quand ils deviendront capables de générer une conscience qui leur serait propre, nous obligeraient à revoir nos propres conceptions de la conscience. On pourrait retrouver alors les débats, illustrés comme l'a montré Miora Mugur-Schächter, par les interprétations de la mécanique quantique relativement aux relations entre l'observateur, l'observé et une supposé Réalité. Indiquons tout de suite que nous ne nous engagerons pas sur ces pentes savonneuses dans le cadre de cette article.

Introduction

Rappelons d'abord comment le cerveau du sujet construit des modèles du monde permettant à celui-ci de s'adapter au milieu dans lequel il vit (cf. par exemple : «Making up the Mind», de Christopher Frith et notre chronique http://www.automatesintelligents.com/biblionet/2007/juil/frith.html). Il faut se représenter le sujet comme un organisme vivant (on ne définira pas la vie à ce stade) doté d'une membrane ou frontière le séparant du monde extérieur et communiquant avec ce dernier par des périphériques : organes sensoriels et organes effecteurs. Ces organes sont reliés par un système nerveux lui-même doté, dans les organismes évolués, d'une centrale d'interconnexion, de mémorisation et de traitement des données provenant des périphériques. Nous l'appellerons le cerveau.

L'organisme vivant «néguentropique» est plongé dans un milieu non vivant qui exerce sur lui une pression «entropique» tendant en permanence à le dissoudre. Pour survivre, il doit donc trouver dans ce milieu les éléments lui permettant de se développer et éviter ceux susceptibles de le détruire. Mais le milieu renferme une quantité illimitée de ressources potentiellement utiles ou nuisibles. L'organisme ne connaît que celles du milieu local avec lequel il est en contact immédiat. Il doit donc se construire un modèle dynamique de ce milieu local. Il élaborera par essais et erreurs, à partir de ce modèle, des stratégies de survie exploitant au mieux les ressources locales.

Ce processus commence dès les origines de la vie. On peut considérer qu'une bactérie est du fait de son existence un modèle du milieu dans lequel elle cherche à survivre. Ses différentes propriétés sont en effet adaptées aux caractères du milieu dont elles représentent si l'on peut dire une image en creux. On peut aller plus loin et dire que la bactérie représente un concept global, fait de concepts de détail, par lequel elle-même et le réseau bactérien auquel elle appartient modélisent le milieu afin de l'exploiter.

Dans le langage courant, un concept est défini comme «une idée ou représentation de l'esprit qui abrège et résume une multiplicité d'objets empiriques ou mentaux par abstraction et généralisation de traits communs identifiables par les sens». (Wikipedia). Nous ajouterions à cette définition une précision importante. Un concept ne se crée pas dans l'esprit (plus exactement dans le cerveau) sans que ceci réponde à une utilité. Le concept se crée dans le cerveau parce que celui-ci est capable d'abstraire à partir de perceptions différentes les traits communs qui peuvent faire soupçonner une permanence intéressante pour la survie. Le concept permet donc de réagir rapidement à une perception nouvelle. Ou bien celle-ci signale un élément du monde extérieur déjà connu et ne nécessitant pas un effort d'adaptation, ou bien elle signale un élément nouveau, avantageux ou dangereux, non prévu par le concept et auquel il faudra s'adapter. Dans ce cas, en cas de succès des conduites d'adaptation, après un temps de latence suffisant pour éliminer les perceptions parasites, le concept sera enrichi ou modifié en profondeur.

Tout ceci se modélise aujourd'hui très facilement avec des robots dotés de corps comprenant des organes sensoriels, des organes effecteurs et une unité centrale. Les informations reçues directement en entrée ou indirectement en retour de celles émises en sortie construisent dans l'unité centrale du robot une représentation du milieu dans lequel le robot opère. A cette fin, l'unité centrale est équipée de dispositifs capables d'apprentissage, tels des réseaux de neurones formels. En interagissant avec le milieu, le robot se dote progressivement d'un modèle symbolique du monde tel qu'il le perçoit par ses organes d'entrée-sortie. Ce modèle est construit à partir des expériences passées du robot et sert de référence pour les décisions futures.

Si le robot avait précédemment constaté qu'un pied de table l'empêchait de progresser, il évitera dorénavant tout ce qui sera perçu comme équivalent à un pied de table, par exemple un pied de chaise ou la jambe d'un opérateur. Son cerveau se sera donc enrichi d'une représentation générique ou concept désignant non pas un pied de meuble mais un obstacle à la progression. Lorsqu'il identifiera dans son environnement un nouvel obstacle, il se référera à ce concept pour choisir entre deux « comportements de survie » différents, éviter l'obstacle ou, s'il est léger, continuer à progresser en le bousculant. Ajoutons (nous simplifions) que lorsque plusieurs robots opèrent en groupe, ils apprennent à échanger leurs représentations individuelles ou concepts par l'intermédiaire d'un langage symbolique commun élaboré spontanément. Le langage fait correspondre à chaque concept un signal permanent grâce auxquels les contenus de mémoires peuvent être échangés. Les robots se dotent ainsi d'une représentation collective du monde cumulant les expériences individuelles de chacun d'entre eux et augmentant leur réactivité. Si un robot identifie un obstacle infranchissable, il le signalera aux autres, ce qui leur évitera de gaspiller de l'énergie en s'en approchant pour l'identifier eux-mêmes.

Cette définition correspond à la façon dont un humain doté d'un cerveau associatif et capable de verbalisation langagière se représente le monde afin de s'y adapter. Mais elle peut être « dégradée » pour s'appliquer à des organismes dotés d'un cerveau plus rudimentaire, dont les capacités de création de concept et d'échange sont moindres. Au plus bas de l'échelle, nous avons mentionné les bactéries, qui sont handicapées par le manque de système nerveux. Leurs capacités de représentation symbolique sont très réduites, même lorsqu'elles opèrent en groupe (web bactériens). Les échanges qu'elles entretiennent sont également très réduits. Mais ils existent néanmoins, sous forme de messages chimiques. On connaît le désormais célèbre «quorum sensing», processus par lequel des bactéries évaluent leur population au sein d'un organisme infecté, afin de ne devenir virulentes que si elles sont en nombre suffisant pour submerger les défenses immunitaires de l'hôte.

Mais prenons un primate arboricole, dont les organes sensoriels et de traitement de l'information sont très proches de ceux de l'homme. Le «système primate» peut plus facilement que le «système bactérie» être simulé par un robot du type de celui que nous venons de décrire. Plaçons en esprit ce primate dans une forêt parcourue de prédateurs. A la suite de millions d'années de lutte pour la survie, le cerveau de ce primate a construit sous forme d'associations permanentes entre neurones des représentations du monde forestier dangereux dans lequel l'espèce s'est développée. Jean-Pierre Changeux appelait ces représentations des objets mentaux. Nous les appellerons conformément à la terminologie utilisée ici des concepts non verbalisés. Ces associations entre neurones et objets mentaux ou concepts peuvent être dits épigénétiques, car une grande partie correspond à des acquis de l'espèce transmis par héritage et une autre, sans doute moins importante, à des apprentissages individuels dits aussi culturels. Les concepts dont disposent ces primates sont en nombre réduits et d'ampleur elle-même strictement limitée aux besoins de survie. L'animal ne s'intéresse qu'à son milieu. Ceci parce que l'organisme, spontanément, fonctionne à l'économie, comme d'ailleurs toutes les structures naturelles. Recueillir des données, les mémoriser et les traiter consomme beaucoup d'énergie.

Les cerveaux de nos ancêtres primates, ceux qui ont survécu aux pressions de sélection, ont supposé (fait l'hypothèse), par essais aléatoires et erreurs, que certaines lignes horizontales et verticales correspondaient aux excroissances de «quelque chose» dans lequel il était possible de se réfugier pour échapper à un danger. De même leurs cerveaux ont fait l'hypothèse que des images identiques se succédant rapidement et conforme à un certain modèle (couleur noire, être pourvu de griffes et de dents…je simplifie) correspondaient à l'approche d'une entité déjà enregistrée en mémoire comme capable de faire des blessures douloureuses à laquelle il fallait échapper. Bien évidemment, les constructions que des millions d'années après, ayant hérité génétiquement de l'expérience de ces primates, nous percevons avec un grand luxe de détails utiles n'étaient aux origines ni nommées ni détaillées. Nos ancêtres animaux ne percevaient aux origines ni un arbre ni une panthère, mais un ensemble de stimulus cohérents comparables à ceux que le modèle du monde acquis par apprentissage pouvait produire dans des circonstances identiques. Si les perceptions nouvelles étaient suffisamment proches de celles provenant du «concept» mémorisé comme représentant une entité dangereuse, le cerveau déclenchait les comportements d'évitement adéquats

A l'inverse, tous les primates ayant fait, toujours sur le mode exploratoire par essais et erreurs, des hypothèses différentes relativement à ce que désignaient les messages sensoriels provenant de ce que nous appelons aujourd'hui un arbre et une panthère, n'ont pas vécu assez longtemps pour que leur cerveau construise le modèle d'un monde différent – un monde comportant par exemple un arbre mou dans lequel il serait impossible de trouver un abri ou une panthère conviviale s'approchant pour se faire caresser.

Aujourd'hui encore, les primates humains que nous sommes ne peuvent pas affirmer avec une certitude absolue que l'entité arbre puisse nous servir d'abri ou que l'entité animal sauvage que nous voyons s'approcher puisse être dangereux. Si par extraordinaire, nous découvrions que certaines de ces entités se comportaient d'une autre façon que celle mémorisée après des millénaires d'expérience, nous serions conduits à modifier notre jugement sur elles en particulier et sur le monde en général. Nous dirions que, dans certaines circonstances, le monde comporte des arbres flexibles comme des roseaux et des panthères caressantes comme des chats.

Il est important de bien comprendre l'exemple qui précède pour comprendre le jugement que nous pouvons porter sur un monde dont nous constatons tous les jours les changements et au sein duquel nous constatons tous les jours l'apparition de caractères nouveaux. Si nous constatons que le monde se transforme au lieu de rester fixe, nous pourrons nommer évolution les changements qu'il subit. Si nous constatons par ailleurs que, dans le cadre de cette évolution, il fait apparaître des propriétés jamais vues jusqu'alors et inexplicables, nous pourrons qualifier d'émergentes ces apparitions. Des animaux ne disposant pas d'un vaste cortex associatif capables de projections étendues perçoivent sans les nommer les phénomènes traduisant ce que nous appelons l'évolution et l'émergence. Il faut voir avec quelle circonspection ils considèrent tout phénomène évolutif qu'ils ne connaissent pas ou dont ils ne peuvent prédire l'évolution, comme le feu. Leur cerveau perçoit clairement, même s'il ne peut le verbaliser, ce que signifie «évoluer» et l' «émergence» potentielle de situations nouvelles pouvant résulter de cette évolution.

Nous pourrions faire comme les animaux, nous limiter à n'utiliser les concepts d'évolution et d'émergence que dans la limite des cas où nous pouvons constater leur adéquation aux perceptions de nos sens, éventuellement complétés des instruments de la science moderne. Nous pourrions éviter d'imaginer qu'il existe une Evolution ou une Emergence indépendantes de nos observations actuelles, dont nous pourrions à force d'hypothèses et d'expériences futures, découvrir progressivement les raisons d'être intrinsèques. Nous pourrions, mieux encore, éviter de faire le postulat qu'il existe une Evolution et une Emergence en soi, dotées de propriétés que ni nos sens ni nos cerveaux ne pourront jamais faire l'expérience, compte tenu de leurs limites indépassables.

Mais les cerveaux humains, même réunis en réseau dans la société scientifique, ne fonctionnent pas ainsi. Ils ont appris que l'audace des hypothèses faisait avancer les connaissances. Certes, les hypothèses métaphysiques ne vont pas très loin en ce sens, car elles ne sont pas relayées par l'expérience. Mais l'induction et l'abduction scientifiques permettent au contraire, à partir de faits nouveaux suscités par l'évolution propre des technologies d'expérimentation, de formuler des modèles du monde allant au delà des possibilités instrumentales du moment, dans l'espoir qu'elles pourront être vérifiées ultérieurement par la voie expérimentale.

L'inconvénient de ces hypothèses, quand elles sont connues du grand public sans expérience scientifique, ou quand elles sont exploitées par des croyances religieuses voulant s'en servir comme argument en faveur des affirmations de leurs écritures, est d'alimenter des débats qui obscurcissent dangereusement le regard que nous pouvons porter sur les phénomènes susceptibles d'être interprétés en termes d'évolution et d'émergence. L'évolution pose directement la question du temps, des origines et du devenir. L'émergence pose celle des raisons par lesquelles le nouveau apparaît à partir de l'ancien. Il s'agit de questions que les philosophes et les religions, depuis qu'elles existent, ont cherché à résoudre avec les concepts à leur portée. Aussi respectables que soient les réponses proposées, elles ne peuvent être considérées comme scientifiques. Malheureusement, elles interfèrent en permanence avec les efforts de modélisation scientifique et retentissent sur la façon dont chacun d'entre nous considère le monde en général, l'évolution et l'émergence en particulier. Les scientifiques, malgré l'audace de leurs hypothèses, qui rejoint et dépasse souvent celle des philosophes et des mystiques, sont obligés de rappeler qu'il ne s ‘agit que d'hypothèses. Nous sommes alors tentés de ne pas tenir compte de leur prudence, que nous trouvons bien décevantes au regard des promesses de l'imaginaire et de la foi du charbonnier.

Nous voudrions montrer ici que, malgré les difficultés, il devrait être possible de se donner une représentation prudente de l'évolution de l'univers et des émergences multiples qui l'ont marqué. Nous n'aurons pas l'outrecuidance de prétendre que cette représentation serait à proprement parler scientifique. Elle évitera par contre les extrapolations hasardeuses, qui ne peuvent faire que le lit des fausses sciences et de ceux qui vivent de leur commerce.

On rappellera que les concepts d'évolution et d'émergence, tout relatifs qu'ils soient, n'ont pas été construits dans notre cerveau individuel au reçu des informations provenant de nos seuls sens personnels. Ils résument, dans la société scientifique qui est la nôtre, l'expérience acquise par des millions d'observateurs à travers les âges, ayant utilisé des millions d'instruments d'observation différents et ayant consignés et critiqués le résultat de leurs observations dans des millions de pages accessibles facilement. C'est là le propre des comportements humains dits scientifiques. Si, globalement, toutes ces observations confirment l'hypothèse selon laquelle les concepts d'évolution et d'émergence permettent de représenter de façon à peu près adéquate un très grand nombre de situations observées et vécues en dehors de nous, la confiance que nous pouvons apporter à leur validité pour décrire le monde auquel nous devons, aujourd'hui comme jadis, nous adapter pour survivre, sera confortée. Nous pourrons aller jusqu'à dire que nous « croyons » à leur validité. Mais nous n'y croyons pas d'une façon aveugle, comme les adeptes d'une religion croient en leur dieu. Nous n'y croyons que sous réserve des résultats de nouvelles expériences.

I. L'univers, l'évolution, l'émergence et la démarche de la science.

Ces deux concepts d'évolution et d'émergence sont dorénavant constamment utilisés, comme l'ont rappelé les intervenants invités par Philippe Petit, en cosmologie, en physique, en biologie et dans les sciences humaines. Mais on leur donne généralement des acceptions différentes. Ceci peut poser un problème méthodologique. Est-ce que l'unité des connaissances n'en souffre pas ? On pourrait souhaiter pour éviter ce risque réunir les diverses disciplines, malgré leurs nécessaires différences d'approche, par une vision commune de la façon dont elles utilisent les concepts d'évolution et d'émergence. Même si les observables étudiées par chacune d'entre elles ne sont pas identiques, notamment en terme de complexité, ces diverses disciplines ne s'inscrivent-elles pas dans une « vision » commune de l'univers, fonction de nos outils conceptuels (notamment de l'usage que nous faisons des mathématiques), des potentialités de nos instruments et finalement d'un certain nombre de paradigmes voire d'effets de mode structurant en profondeur et de façon généralement mal perçue, la société scientifique de chaque époque.

L'évolution

Le concept d'évolution n'est généralement pas discuté, tout au moins quand il s'agit de décrire le monde macroscopique dit quotidien. Nous envisageons ici l'évolution dans le cadre du paradigme darwinien (mutation-sélection-amplification) mais sans nous engager dans la traduction génétique du phénomène. Bien d'autres entités évoluent aujourd'hui sur le mode darwinien sans qu'elles disposent de génomes à proprement parler. C'est le cas des "mèmes" proposés par Richard Dawkins. Tout au plus le concept d'évolution pose-t-il, nous l'avons évoqué, la question encore non résolue de la consistance du temps : celui-ci est-il lié ou non aux évènements qui s'y enchaînent ? Mais on peut traiter l'évolution du monde macroscopique, dans la tradition newtonienne, en considérant qu'elle se déroule dans un cadre d'espace temps indépendant de son contenu. La physique quantique le permet également. Les difficultés ne surgissent que dans le cadre de la relativité générale poussée à ses extrêmes, si l'on admet l'hypothèse qu'aux origines d'un univers ou à l'occasion de la création de trous noirs, se trouvent ou apparaissent des corps si massifs qu'ils courbent l'espace temps jusqu'à la formation de singularités, c'est-à-dire d'univers ponctuels dont la physique actuelle ne peut rien dire mais où l'écoulement du temps devrait s'arrêter.

Le concept d'émergence est infiniment plus compliqué, au moins en apparence. Pour tenter de le clarifier, nous distinguerons l'émergence dans le monde macroscopique et l'émergence dans le monde quantique

L'émergence dans le monde macroscopique

Aujourd'hui, dans les sciences du monde macroscopique, faire appel à l'émergence signifie que l'on ne peut pas donner d'explication réductionniste à l'apparition ou à la nature du phénomène dont on dit qu'il est émergeant, c'est-à-dire dont on dit qu'il s'impose subitement et sans avertissements à l'attention d'un observateur. Le réductionnisme, qui n'a rien d'infamant, contrairement aux affirmations des émergentistes de tendance mystique, consiste à expliquer l'apparition d'un phénomène nouveau par des règles ou faits déjà connues. Ainsi l'émergence d'un virus comme celui du sida, qui a surpris les virologues, peut s'expliquer de façon réductionniste par ce que l'on sait des mutations et des conditions environnementales favorisant la naissance des épidémies. Même des questions précises « pourquoi ce virus particulier, pourquoi en ce lieu et à ce moment ? », pourraient (en principe) trouver des réponses si l'on disposait d'informations suffisamment détaillées. En théorie, le virologue serait en droit de répondre, comme le démon de Laplace : donnez-moi les conditions initiales et je vous expliquerai le sida, son apparition, son évolution et par extension, l'évolution de la vie sur la Terre.

Les spécialistes de la théorie du chaos expliqueront que la compréhension rétroactive et à fortiori la prévision sont, dans ce cas comme dans pratiquement toutes les autres questions auxquelles la science s'intéresse, rendues impossibles par l'incertitude inévitable concernant les données initiales. Celle-ci introduit l'effet papillon bien connu. Mais il s'agit d'une évidence qui n'exige pas d'attribuer au concept d'émergence une portée quasi religieuse. D'une part l'analyse probabiliste demeure toujours possible, avec une efficacité régulièrement croissante due à la puissance des ordinateurs et à l'utilisation de certains outils mathématiques nouveaux. D'autre part, à supposer que la science ne puisse jamais expliquer l'histoire et l'avenir de l'évolution de chacun des atomes constituant l'univers – ce qui est le cas – cela n'oblige pas à dire que la démarche réductionniste de la science n'ait pas d'intérêt. Elle permet d'éliminer toutes les pseudo-explications des pseudo-sciences refusant de faire le difficile travail d'analyse des facteurs causaux et de leur enchaînement.

Par contre, le réductionnisme ne doit pas être utilisé là où, serait-il possible, il imposerait un travail d'investigation des détails qui empêcherait – ne fut-ce que parce que la science, comme tout comportement naturel, fonctionne à l'économie - l'identification et l'étude des grands ensembles. Les sciences dites de la complexité (terme dont on peut admettre qu'il n'a d'intérêt que comme métaphore) ont fait beaucoup progresser les études scientifiques en tous domaines parce qu'elles ont incité à considérer comme observables des macro-objets et macro-processus jusqu'alors rendus invisibles par une attention excessive aux détails de ces mêmes macro-objets et macro-processus. Nous avons rappelé précédemment, dans cette revue et dans nos livres (JP Baquiast, Pour un principe matérialiste fort, Jean-Paul Bayol, 2007) le véritable nouveau regard apporté, en biologie comme dans les sciences humaines, par l'étude des super-organismes. Ceux-ci sont considérés comme des organismes vivants et la science s'attache à étudier leurs interactions au sein de super-populations fonctionnant en réseaux. Dans ce cas, mettre l'accent sur tel comportement de tel individu composant l'un de ces super-organismes est certes important, mais ne suffit pas à comprendre le fonctionnement du super organisme tout entier. Autrement dit, considérer des niveaux d'intégration de plus en plus élevés (dans l'ordre de la complexité) permet de traiter comme des observables des entités globales jugées dignes d'étude, sans obliger à rechercher les comportements individuels de leurs composants. Ceux-ci sont, au mieux, étudiés en termes statistiques.

Est-il nécessaire de faire appel à l'émergence pour comprendre le comportement voire la nature d'un super-organisme ? Observons d'abord qu'identifier, au-delà des objets directement visibles par notre cerveau, des ensembles réunissant ces objets, constitue une démarche pratiquée depuis des millénaires, non seulement par la science mais par le langage empirique. Cela fait au moins 3.000 ans que le langage a pris l'habitude de parler de la société politique, telle par exemple la nation, en dépit du fait que les composants de cette nation restaient fort confus. Intuitivement, ceux qui ambitionnaient de s'adresser à la supposée nation comprenaient qu'une « personnalité » supérieure à celle des individus s'en dégageait. Les qualifier d'émergentistes avant la lettre n'apporterait pas grand-chose.

Les émergentistes d'aujourd'hui font valoir, à l'encontre des réductionnistes, que les parties ne peuvent définir les propriétés du tout. L'étude de la fourmi, disent-ils, ne fera pas comprendre le comportement de la fourmilière. De même, l'étude des atomes de la fourmi ne fera pas comprendre le comportement de la fourmi. Il est évident que ce ne sont pas les lois des parties qui peuvent expliquer la loi du tout. C'est au contraire le tout qui peut expliquer les lois des parties. Pour étudier utilement la fourmilière, il faut donc la considérer comme un tout présentant des propriétés propres. Mais faut-il la qualifier de phénomène émergent ?

Encore une fois, nous observons en permanence des phénomènes nouveaux, ou prenons des points de vue nouveaux sur le monde, sans évoquer l'émergence. L'étude d'un phénomène ou d'un objet commence d'abord par l'étude de ses caractères ou comportement globaux, au regard du milieu dans lequel il se trouve immergé. Tout entomologiste conséquent, tout au moins aujourd'hui où le regard s'est élargi aux systèmes, se représente la fourmilière comme un super-organisme en interaction avec de multiples autres, semblables ou différents. C'est seulement, par exemple, après avoir analysé les échanges énergétiques de la fourmilière avec son milieu qu'il cherche à comprendre le rôle de l'ouvrière dans l'activité de fourragement nécessaire à la survie de la fourmilière. Pour commencer à étudier utilement la fourmi, il doit avoir identifié au préalable les fonctions que celle-ci en tant qu'individu doit exercer au service du fonctionnement de la fourmilière. Sinon, aucun critère sérieux de recherche ne pourrait guider son étude de la fourmi. Il risquerait par exemple, avec un peu trop d'imagination, de chercher à vérifier l'hypothèse selon laquelle la patte arrière droite de celle-ci lui sert, dans le secret de la fourmilière, à se nettoyer le nez.

Les scientifiques, même quand ils ne perçoivent pas immédiatement les causes des phénomènes étudiés, n'affirment pas a priori que leurs propriétés ne sont pas réductibles à celles de leurs parties. Cette affirmation leur paraît si évidente qu'ils auraient honte de la présenter comme une grande découverte méthodologique. En conséquence, ils se gardent de distribuer des brevets d'émergence à tout objet non encore observé par leurs prédécesseurs et dont ils veulent entreprendre l'étude. S'ils faisaient ainsi, ils s'interdiraient l'analyse réductionniste, qui constitue quand même la meilleure façon de comprendre la raison d'être de la nouveauté. En général, comme indiqué ci-dessus, confrontés à un phénomène dont la raison d'être ne saute pas aux yeux, les scientifiques se bornent à étudier les propriétés globales de ce phénomène, relativement au milieu environnant. Dans un second temps, déjà guidés par l'opinion qu'ils se seront faite du phénomène, ils essaieront de décomposer celui-ci en «parties» dont ils essaieront de comprendre la contribution au comportement du tout. En fait, quand on observe le travail scientifique, on constate qu'il suppose un aller et retour permanent entre l'étude du tout et celle de ses parties, l'une et l'autre poussée aussi loin que possible. Ce ne sera qu'en cas d'échec de cette double approche que l'on pourra se risquer à parler d'émergence.

On nous objectera que l'émergentisme est né en réaction aux abus du réductionnisme. Les manuels émergentistes sont pleins d'exemples où la volonté d'expliquer les lois du tout par celles des parties a généré des erreurs monumentales – que ce soit en science ou dans la pratique empirique de la vie courante. L'exemple le plus cité est celui de la médecine, qui tend à oublier que le patient est un organisme global. Il peut donc être contre-productif de lui appliquer des traitements visant à traiter le dysfonctionnement le plus évident, en ignorant tous les autres.

Mais on peut soutenir que les abus du réductionnisme dérivent des abus du réalisme en science. Celui-ci tend à considérer que tout objet perçu par le regard correspond à une entité d'un Réel en soi dont les propriétés existeraient indépendamment du regard de l'observateur. Il en résulte une réification de l'objet à qui l'on prête des propriétés dérivées de celles attribuées au Réel d'arrière plan supposé. Ainsi la médecine moderne voit en chaque patient une entité indépendante du regard du praticien et participant d'un processus réductionniste défini par les manuels de médecine et les réglementations sociales. Elle ne voit donc pas l'intérêt de jeter sur lui un regard permettant de le faire descendre de son piédestal d'être-en soi (qu'il n'est pas), afin de voir en lui la construction en constant remaniement résultant de la conjonction du regard du praticien, des données fournies par les analyses et d'une spécificité insondable tenant à sa nature personnelle et à son histoire individuelle.

Les abus du Réalisme ontologique ont été soulignés dès l'apparition de la mécanique quantique. Celle-ci reconnaît que les entités microscopiques (particules, ondes, etc.) n'existent pas comme des réalités indépendantes de l'observateur. Elles sont «construites», en tant qu'objet de science, par un processus reliant l'observateur, les instruments dont il dispose (avec leurs limitations) et un monde sous jacent dont nul ne peut rien dire a priori. Or, comme l'a bien expliqué Mme Mugur-Schächter, le processus qu'elle a nommé de conceptualisation relativisé utilisé en physique quantique pourrait avec beaucoup d'avantages être étendu à toutes les sciences sans exception et ceci sans se référer à un monde sous jacent qui ne serait pas observable directement. Nous avons nous-même montré comment, grâce à l'utilisation de cette méthode, il était possible de traiter scientifiquement et donc efficacement un macro-processus tel que le chômage, alors qu'aucun sociologue ne rencontrera jamais le chômage au coin de la rue, mais seulement des chômeurs trop différents pour qu'il soit possible de leur appliquer des outils d'analyse macro-économique, macro-sociologique ou macro-politique permettant de lutter contre le chômage (JP. Baquiast, op.cit.).

Mais qui dira que tel ensemble de caractères cohérents, par exemple la volonté de défendre le territoire et d'en exclure les étrangers, méritera d'être considéré comme un super-organisme et d'être étudié en tant qu'entité distincte ? Ce seront les observations que nous ferons à son propos ou, si l'on préfère, les informations émises par ce super-organisme et qui, pour des raisons découlant de notre histoire personnelle, s'imposeront à nos cerveaux en générant un comportement d'investigation propre à tous les organismes vivants. Si je constate qu'une foule se comporte de façon agressivement effrayante alors que toutes les personnes qui la composent se comportent individuellement comme des agneaux, je me dirai que le phénomène de foule ou de groupe mérite une étude avec des instruments spécifiques. Mais à nouveau, qui dira que la foule se comporte de façon agressive, alors qu'une personne vivant dans une société habituée à la violence ne ferait pas attention à cette agressivité ? Ce sera à nouveau moi qui formulerai ce jugement. Je serai conduit à le faire par une sensibilité formée dans une société dite policée et parce que je suis doté d'un cerveau porteur de toutes les références inscrites par des années d'appartenance à cette même société policée.

Si donc, dans les sciences du monde macroscopique, nous souhaitions parler d'émergence avant d'étudier un phénomène nouveau qui nous préoccupe, ce serait notre droit. Mais ce mot ne devrait pas être seulement considéré comme un cache misère ou un renoncement signant l'incapacité de la science à entrer dans les détails, comme le disait Mme Maurel dans l'émission de France Culture (voir ci-dessous) mais plutôt un raccourci, ce que l'on nommerait en anglais un fast-track, permettant d'aller à l'essentiel compte-tenu des limites en crédits et en temps dont souffrent les chercheurs. Nous pourrons donc reprendre pour désigner ce type d'émergence le qualificatif suggéré lors de ladite émission, celui d'émergence faible.

On parlera d'émergence faible à propos d'un phénomène pour indiquer que ce phénomène possède des causes que la science pourrait expliciter (comme elle pourrait expliciter la raison pour laquelle un dé retombe sur telle face et non sur les autres). Mais elle reconnaît n'avoir ni le temps ni la volonté de les étudier. Elle préfère étudier la façon globale dont ce phénomène se manifeste. Indiquons en passant que ce terme d'émergence faible devrait suffire à décourager les fausses sciences et autres mythologies religieuses qui prétendent voir derrière chaque nouveauté la manifestation de l'autorité divine. La science répondra aux campagnes spiritualistes arguant de l'inconnaissabilité ontologique des causes, qu'elle pourrait s'intéresser à ces causes et les faire apparaître, mais que ce travail ne lui parait pas prioritaire au regard de l'étude des effets. Le terme d'émergence faible ne nie pas que des problèmes existent et mériteraient étude, mais il propose au public et aux organismes qui financent la science de ne pas en faire des priorités.

L'émergence dans le monde quantique

Ceci dit, à quel moment pourra-t-on parler d'émergence forte ? On appellera émergence forte une émergence considérée comme durablement sinon définitivement inexplicable par la science. Or il n'y a aujourd'hui qu'un seul domaine dans lequel les scientifiques estiment généralement se heurter à des inconnaissables, sinon absolus, du moins infranchissables sans modifications profondes des méthodes et des outils. Il s'agit du monde quantique et des nombreux domaines de la cosmologie ou même des sciences macroscopiques impliquant des entités quantiques.

Une partie de la physique moderne, voire d'autres sciences moins dures, font désormais appel à ce concept d'émergence, entendu au sens fort. Robert Laughlin, qui reste après quelques années le pape de la question, s'est livré à une défense tous azimuts de l'émergence forte. Il n'emploie pas ce terme, ce qui jette un peu de confusion dans ces propos. Mais c'est en général à l'émergence forte qu'il fait allusion, que ce soit en physique fondamentale ou dans la physique de tous les jours (voir R. Laughlin, A Different Univers, JP.Baquiast op.cit et notre article
http://www.automatesintelligents.com/biblionet/2005/juin/laughlin.html ).

Pour lui comme pour la plupart des physiciens, la mécanique quantique ne permet pas de comprendre l'univers en profondeur, et moins encore d'agir sur lui. Elle permet juste d'interpréter un certain nombre des phénomènes nouveaux que révèle le développement des instruments et des expériences, par exemple au sein des accélérateurs de particules. Le monde quantique, dans ses profondeurs, est et restera inconnaissable. C'est ainsi que parler de vide quantique représente simplement une façon de désigner quelque chose d'indéfinissable, sous-jacent à la réalité matérielle, dont on constate seulement telle ou telle manifestation dans telle ou telle expérience. De même les particules qui émergent du vide quantique ne sont ni des ondes, ni des particules ni les deux à la fois. Elles sont définitivement autre chose. Ceci n'empêche pas de les utiliser, dans certaines conditions.

Concernant la cosmologie, Robert Laughlin se sépare profondément des travaux des cosmologistes théoriciens visant à décrire de façon réaliste les états passés, présents et futurs de l'univers. Il estime que ces travaux relèvent non seulement de la science fiction mais d'une méconnaissance profonde de ce qu'est selon lui l'univers, c'est-à-dire le produit d'une émergence. Il s'en prend particulièrement à la Théorie du Tout, qui prétendrait trouver une équation unique à partir de laquelle on pourrait déduire toutes les autres formes de connaissances. Cette ambition, triomphe du réductionnisme, selon laquelle les lois des mécanismes élémentaires permettent de déduire la loi du système complexe, ignore dramatiquement la théorie de l'émergence.

Sa critique touche un point de grande importance philosophique. Il nous rappelle que la physique contemporaine repose sur la connaissance de ce que l'on appelle des constantes universelles. Pour lui, il s'agit seulement d'expériences donnant un résultat universel. On en trouve une vingtaine, telle la vitesse de la lumière dans le vide ou la constante de Rydberg. Mais le caractère apparemment universel de telles expérimentations est un piège. Il conduit à faire penser que ces constantes ont mis en évidence les briques primitives à partir desquelles est construite la réalité. Ainsi, si la vitesse de la lumière apparaît constante aujourd'hui, ce serait parce que la lumière serait une composante élémentaire de l'univers. Or prendre en considération les phénomènes d'émergence montre que cette constante elle-même résulte d'un phénomène d'organisation sous-jacent. La lumière pourrait être le produit d'une émergence. Fondamentalement, derrière les constantes, on pourrait retrouver si on s'en donne la peine l'incertitude et l'inconnu. Toutes les constantes dites fondamentales requièrent un contexte environnemental organisationnel pour prendre un sens. Beaucoup de ses collègues ne partagent pas ce point de vue, mais il est intéressant.

Un «émergentiste fort» comme Laughlin considère que la réalité quotidienne est un phénomène d'organisation collective, se traduisant par des « vérités » statistiques ou probabilistes (ce qu'ont dit depuis longtemps les biologistes et les physiciens quantiques). On peut pour des besoins pratiques, dans le monde quotidien, décrire les objets macroscopiques comme des constructions d'atomes situés dans l'espace-temps newtonien, mais l'atome isolé n'est pas newtonien. C'est une entité quantique « éthérée » manquant de la première des caractéristiques du monde newtonien, la possibilité d'être défini par une position identifiable. Ceci apparaîtra non seulement dans les expériences de la physique quantique, mais dans les expériences de la physique des matériaux et des états de la matière intéressant la vie quotidienne. Les physiciens s'intéressant aux phénomènes macroscopiques doivent donc eux aussi apprendre à gérer l'incertitude née de l'émergence, considérée comme un aspect incontournable de toute « réalité » et la voie permettant d'accéder à de nouvelles découvertes. Ceci du moins quand ils considéreront les composants les plus bas dans l'échelle des organisations que sont les «ondes» et les «particules » quantiques.

Quelle valeur attribuer à cette acception de l'émergence forte. Elle se distingue radicalement de l'émergence faible, puisque, contrairement à elle, elle pose l'existence d'une barrière d'inexplicabilité. Face à un phénomène faisant appel à des entités quantiques, les sciences ne sont évidemment pas désarmées. Les technologies non plus. Elles en font de très nombreux usages. Mais les unes et les autres traitent les phénomènes quantiques en se limitant à l'observation de leurs manifestations statistiques. Elles ne cherchent pas à comprendre en profondeur ce qui se trouverait derrière les phénomènes. Certains scientifiques s'y essayent parfois, dans le sens de ce qui était appelé il y a quelques décennies la recherche des variables cachées. Mais sans succès avéré à ce jour. D'autres postulent que cette recherche découle d'un mauvais fonctionnement du cerveau humain. Il génère dans certaines applications des «passages aux limites» qui ne s'imposent pas dans la nature. On les retrouve dans des domaines de fonctionnement aussi différents que les mathématiques et la métaphysique. Selon ce postulat, les cerveaux biologiques, même lorsqu'ils sont interconnectés dans les réseaux de la recherche scientifique, ne peuvent dépasser les limites imposées par l'architecture et les composants des organismes vivants auxquels ils appartiennent.

II. Une histoire scientifique consensuelle de l'univers

Nous pensons que la science moderne peut proposer aujourd'hui, si elle sait s'affranchir des préjugés métaphysiques et religieux hérités du passé, une histoire consensuelle de l'évolution de l'univers. Cette histoire fera place à la reconnaissance de phénomènes émergents (au sens fort) lorsque la science reconnaîtra qu'elle ne peut leur trouver – au moins momentanément - des explications réductionnistes. Mais face à ces phénomènes, elle ne fera pas appel à des explications spiritualistes qui ne pourraient que l'égarer dans des voies qui ne sont et ne doivent pas être les siennes. Elle admettra par contre que confrontée à l'inexplicable, elle pourra formuler des hypothèses théoriques non immédiatement vérifiables par l'expérience. Les épistémologues pourraient à juste titre les ranger dans le domaine de la métaphysique matérialiste (JP.Baquiast, op.cit.).

Selon les hypothèses les plus courantes, l'univers est le fruit d'une évolution, au cours de laquelle ont émergé des structures de plus en plus complexes. Cette évolution se poursuit indiscutablement aujourd'hui, dans des directions partiellement identifiables mais sont les résultats proches ou lointaines ne peuvent absolument pas être prédits, sauf en termes de probabilités elles-mêmes peu fiables. Nous devrons cependant envisager ici certaines de ses directions.

Si l'on admet les grandes lignes de l'histoire du monde que nous évoquons ici, on dira qu'elle a donné naissance à plusieurs substrats ou couches superposés, qui s'additionnent et se modifient réciproquement sans cesse.

Le monde quantique.

Pour simplifier ; on désignera par ce terme ce que l'on nomme aussi le vide quantique, empli d'énergie fluctuante sur le mode aléatoire. Le monde quantique ne peut pas être décrit dans les termes de temps et d'espace de la physique macroscopique. Il faut lui appliquer les interprétations que la physique quantique utilise pour décrire les observables quantiques, qui peuvent être considérées comme des fenêtres ouvertes sur quelque chose dont on ne peut rien dire en termes littéraires : principe de superposition, de non-localité, d'incertitude. On ne parlera donc pas d'évolution à son sujet puisqu'il exclu le temps. Le monde quantique est, a été et sera toujours. Certains matérialistes sont un peu gênés d'accepter cette description, qui ressemble beaucoup à la façon dont les croyants se représentent la divinité. Mais nous pensons que l'argument n'est pas suffisant pour la refuser.

Le monde quantique est par ailleurs non déterministe ou aléatoire. Ce n'est sans doute pas lui qui est non déterministe, mais la façon dont il se présente à nos observations macroscopiques, ancrées dans un espace-temps bien déterminé. Ce serait le seul domaine de la physique où l'on pourrait dire que l'on observe du hasard vrai, une sorte de hasard ontologique. Certains physiciens se demandent cependant, nous y avons fait allusion, si n'existeraient pas des lois infra-quantiques permettant de le décrire, au moins à certains niveaux, et donc de prédire certaines de ses manifestations. Si ceci se vérifiait, il faudrait sans doute réintroduire l'idée que le substrat quantique du monde matériel.

Les univers (le multivers)

On admet généralement que les fluctuations aléatoires du vide quantique, si elles ne s'effondrent pas sur elles-mêmes, peuvent donner naissance à des bébés-univers analogues à ce qu'était le nôtre au moment du Big Bang. Il s'agit alors d'une émergence de matière-énergie aux propriétés bien définies au sein d'un espace temps bien défini. Mais chaque bébé univers devrait relever de lois fondamentales toutes différentes. Ceci s'expliquerait par le fait que née de la décohérence d'une particule quantique, la particule à la source de la naissance du bébé-univers pourrait se trouver placée, de façon aléatoire, n'importe où dans l'espace illimité des possibles caractérisant le vide quantique. Chaque bébé-univers, dès son émergence, évoluerait dans son espace-temps en fonction des lois fondamentales ayant émergé à sa naissance. Il ne pourrait en principe conserver de relations avec les autres. Le concept de multivers admet cependant que, dans certaines conditions, des échanges d'information puissent se faire entre univers différents.

Par extension du caractère aléatoire du monde quantique, l'émergence de bébés univers n'obéirait dans cette approche à aucune loi. Elle serait elle aussi aléatoire, de même que le serait les propriétés ou lois fondamentales définissant ces bébés univers. Elles proviendraient de l'espace illimité des possibles, comme indiqué ci-dessus. Ce serait là le seul cas où l'on pourrait parler d'une émergence véritablement soumise au hasard.

Les univers une fois crées seraient tous évolutionnaires. Mais leurs cycles évolutifs dépendraient beaucoup de la répartition interne de leurs masses et énergies. Chacun d'eux générerait en principe des espaces-temps spécifiques.

Notre univers

On entre là dans un domaine scientifique plus familier. Selon l'hypothèse de l'inflation, qui n'est pas admise par tous, notre univers, dans un très court temps après son émergence, aurait acquis des dimensions considérables et se serait peuplé des grandes structures de matière/énergie que nous observons : galaxies, nuages de poussière, matière noire et sans doute, énergie noire. Sous l'influence de cette dernière, il subirait une expansion qui devrait s'accélérer, jusqu'au refroidissement et à la dispersion des éléments le composant.

Selon les scientifiques dont l'opinion diffère, les modalités selon lesquelles évolue notre univers peuvent être considérées, soit comme déterminées dans le moindre détail, soit au contraire fortement soumises à l'aléatoire. Pour notre part, nous voudrions faire l'hypothèse qu'elles sont déterminées. Les lois fondamentales arrêtées de façon aléatoire lors de la décohérence de l'entité quantique initiale à l'origine du Big Bang fixent, une fois qu'elles ont émergé, un cadre contraignant s'imposant à l'apparition et à l'évolution de tous les objets matériels et formes d'énergie peuplant l'univers. Leurs effets sont calculables avec précision. Mais il est évident qu'un observateur humain n'ayant pratiquement aucun des instruments permettant d'analyser dans le détail l'ensemble des forces s'étant exercées ou s'exerçant sur chacun des atomes composant l'univers sera obligé de décrire ces effets en termes statistiques ou probabilistes qui suffisent généralement à la prévision scientifique mais qui ne donnent pas toujours d'explication fine du pourquoi des phénomènes. Nous retrouvons là le raisonnement proposé par Laplace.

Observons cependant que dans des cas relativement simples faisant intervenir des forces facilement mesurables, les cosmologistes et les astronomes pourraient apporter des réponses précises, sur le mode de l'analyse réductionniste. Exemple : « pourquoi notre galaxie se trouve-t-elle à telle distance précise de sa voisine Andromède et non à une distance différente ? » Encore faudrait-il qu'ils disposent des instruments et du temps nécessaires – tous éléments que les institutions finançant la recherche leur refuseront, vu le peu d'intérêt au regard d'autres priorités, tant de la question que de la réponse

Malheureusement, si l'on peut dire, tout ne relève pas de la mécanique macroscopique ou forces calculables dans l'évolution de l'univers. La plupart des questions posées par la cosmologie observationnelle obligent à prendre en compte des hypothèses faisant appel aux interventions du monde quantique et se heurtant donc aux barrières de connaissances inhérentes à celui-ci. C'est le cas concernant les questions souvent posées relatives à l'avant Big Bang, à l'intérieur des trous noirs et à d'autres problèmes de cette nature.

Il n'est pas exclu par ailleurs que l'ensemble des objets peuplant notre univers, et plus particulièrement les planètes du type terrestre qui s'y trouvent par milliards, soient affectés par des émissions de particules quantiques qui introduiraient de l'aléatoire dans l'évolution de leurs organisations, physiques ou biologiques (dans la mesure où certaines de ces planètes hébergeraient des formes de vie). Dans ce cas, une particule quantique ayant émergé du substrat quantique de façon aléatoire verrait sa fonction d'onde réduite (décohérence) par interaction avec des atomes et molécules macroscopiques propres à la planète considérée. Le même phénomène pourrait en principe se produire au sein des molécules de la matière vivante impactées par une particule quantique, si la planète en est dotée. Il en résulterait notamment des mutations pouvant avoir des conséquences importantes sur l'évolution du vivant. Les interactions de ce type se produisant entre cet univers et le monde quantique ne réintroduiraient pas cependant un hasard vrai au niveau du premier. Il faudrait parler d'un hasard contraint. Le hasard serait contraint car soumis aux lois fondamentales qui auraient émergé en même temps qu'émergeait l'univers considéré et détermineraient son évolution en tous points et tous instants.

Il n'est pas besoin de préciser ici que notre univers est évolutionnaire. Il se trouve encore quelques esprits pour supposer qu'il pourrait être fixe. Cependant son évolution pourrait s'organiser sur le mode cyclique. Les modèles actuels, tenant compte de la force d'expansion attribuée à la matière noire, prédisent une évolution de durée infinie, accompagnée, comme rappelée ci-dessus, d'une expansion de l'espace temps et d'une dispersion consécutive des éléments inclus dans celui-ci. L'entropie absolue se trouverait au bout du chemin.

La vie sur notre Terre

La vie n'est possible, au regard de ses propriétés constatées aujourd'hui, que dans des conditions d'environnement assez strictes. On considère donc qu'elle ne peut apparaître que sur un petit pourcentage seulement de tous les types d'astres peuplant l'univers. En fait, elle n'a jusqu'à ce jour été observée que sur la Terre. A priori, rien n'interdit de penser qu'elle soit possible, sous des formes plus ou moins différentes, dans d'autres environnements planétaires. Mais il ne s'agit encore que d'une hypothèse.

Nous n'évoquerons donc ici que l'évolution de la vie biologique terrestre. Cependant, comme nous le verrons plus loin, il existera de plus en plus sur Terre des vies dites artificielles, c'est-à-dire composées d'éléments relevant de la matière minérale et non de la chimie organique à base de carbone.

L'apparition de la vie est considérée par le grand public comme une émergence. Les croyants en font même une création ab nihilo, due à l'intervention d'un créateur extérieur. Mais la plupart des biologistes, comme l'a rappelé Mme Maurel lors de l'émission de France Culture, estiment que ce terme d'émergence est un cache-misère. Il cache le fait que nous ne connaissons pas encore les raisons précises ayant permis, à un certain moment de l'histoire de la Terre, la formation de réplicants biologiques à partir des composés organiques déjà complexes existant dans les océans. Les biologistes ne peuvent toujours pas modéliser, ni par conséquent reproduire, la façon dont la vie est apparue aux origines, à partir d'une matière non encore capable des processus réplicatifs caractérisant le vivant. Ils n'ont sans doute pas tous les outils conceptuels permettant de l'expliquer. Deux hypothèses s'opposent : celle de l'océan primitif ou théorie des surfaces, selon laquelle les premières molécules réplicatives se seraient formées sur des argiles ou des laves, et celle dite de l'impact, selon laquelle la vie serait venue de l'espace. Mais cette dernière théorie se borne à repousser la difficulté en amont. Elle ne résout rien.

Comme ceux de complexité ou de holisme, le concept d'émergence utilisé en biologie participe, selon le terme de Mme Maurel, d'une « soupe préconceptuelle » destinée à masquer le fait que la biologie n'a pas encore de modèle pour expliquer la vie 1). Faute d'un tel modèle, elle ne peut pas non plus expliquer son apparition. Cela ne veut pas dire que cette impuissance ne sera jamais résolue. Il n'y a donc pas lieu de parler d'émergence.

Il n'existe pas non plus de raisons permettant de parler d'émergence lorsque des niveaux d'organisation simples font en se conjuguant apparaître des niveaux d'organisation plus complexe. On dit généralement, nous l'avons vu, que le tout est plus que les parties et que cette propriété caractérise l'émergence en biologie. Mais les parties ne deviennent pas un tout sans des raisons que la science pourrait expliquer, si elle disposait des outils conceptuels et des instruments adéquats. Sans cela, il faudrait, comme le font les créationnistes, appeler à l'aide la divinité pour justifier l'apparition de la complexité dans les organisations biologiques. Nous nous limiterons ici à évoquer l'émergence faible face aux surprises que nous révèle l'évolution et à notre impossibilité pratique d'en comprendre ou prévoir les causes.

Si l'histoire de la vie ne nécessite pas de f aire appel à l'émergence forte, elle constitue au contraire une illustration admirable du concept d'évolution. Les raisons de cette évolution, depuis Darwin, ont été clairement élucidées. L'évolution de la vie, comme sans doute celle des premiers composants dits pré-biotiques, se sont déroulées selon le principe, qui n'a jamais été mis en défaut, du hasard et de la nécessité. La logique en est bien connue, c'est celle de la mutation, sélection et ampliation. Cette logique est illustrée par les travaux des néo-darwiniens qui l'appliquent à l'évolution du génome. Mais on peut la retrouver, sous des formes différentes, dans de nombreux domaines, sinon dans tous les domaines, où se produisent des évolutions : phénomènes physiques, mémétique, programmation génétique…Il ne peut y avoir d'évolution si l'existant ne manifeste aucun changement. Dès qu'un changement se produit, il est en butte à une pression de sélection. Si le changement l'emporte sur l'existant, l'entité changée supplante l'entité précédemment existante – ceci jusqu'à renouvellement du cycle.

Les mutations génératrices du changement se produisent-elles de façon aléatoire ? Concernant le génome, la réponse est généralement affirmative. Dans la pratique, en effet, nul, sauf cas particuliers (dans le domaine du génie génétique, notamment) ne peut prévoir les mutations l'affectant. Mais cela ne veut pas dire, comme indiqué ci-dessus, que ces mutations procèdent de causes mystérieuses. Lorsque la science disposera de moyens suffisants, elle pourra – en principe - élucider les causes de la plupart des mutations. Il restera cependant en pratique difficile sinon impossible de les prévoir avec précision, même dans le domaine du génie génétique.

Ceci admis, certaines mutations, exceptionnelles, ne surviennent-elles pas de façon véritablement aléatoire, c'est-à-dire selon des causes inélucidables révélant l'émergence forte évoquée ci-dessus. Comme nous l'avons indiqué, une mutation véritablement aléatoire ne serait concevable que si elle résultait de l'interaction d'un élément de notre monde macroscopique avec le monde quantique. De telles interactions se produisent en permanence. Mais il est très difficile d'apprécier les changements qu'elles apportent dans les organisations macroscopiques, inertes ou vivantes..

Il n'y a donc rien à redire ou ajouter au darwinisme au regard du principe de l'évolution non dirigée ou "au hasard". La vie s'est développée sur le mode de ce que l'on nomme parfois, avec Jean-Pierre Dupuy l' « immaîtrise » . Ce terme exclut tout recours à un « divin horloger » et toute téléologie. Nous ne connaîtrons jamais les multiples formes de vie qui se sont développées au cours de l'évolution et dont la plupart ont été éliminées par la sélection naturelle. Comme pour tout récit historique, les détails en sont à tout jamais perdus. Mais cela n'a pas beaucoup d'importance. La biologie en a reconstitué les grandes lignes, à partir de la formation de la Terre. Les principales étapes sont connues: apparition des organismes monocellulaires (eucaryotes) 1 milliard d'années environ après la naissance de la Terre, apparition des pluricellulaires (procaryotes) après 2 milliards d'années, apparition des premiers animaux vers 600 millions d'années BP, apparition des premiers préhominiens par divergence d'avec le chimpanzé 7 millions d'années BP (comme ceci vient d'être confirmé par une datation précise du fossile Toumaï due au paléontologue Michel Brunet).

On sait que l'apparition des hominiens et plus particulièrement celle de l'espèce sapiens sapiens posent dans des termes différents, les mêmes problèmes que ceux posés par l'apparition de la vie. Pour quelle raison et comment se sont-ils séparés d'avec les primates qui les précédaient ? La encore, les spiritualistes parlent d'émergence ou de création vraies. Ils voient en l'homme une espèce qui se distingue des autres espèces biologiques parce qu'une divinité lui aurait conféré une âme à son image. Mais cette affirmation n'a aucun fondement scientifique. Si nous nous trouvions reportés au temps où les hominiens sont apparus, nous pourrions en principe analyser les modifications anatomiques, neurologiques ou comportementales expliquant cet évènement (ou plutôt ces séries d'évènements). Ceci d'autant plus que les progrès rapides de la biologie artificielle et de l'intelligence artificielle apportent aujourd'hui de nombreuses pistes pour comprendre un passé jusque là opaque.

Apparition sur la Terre de vie et de conscience artificielles

Depuis quelques années, d'importantes dépenses militaires sont consacrées aux Etats-Unis à des recherches sur la vie artificielle et les cerveaux artificiels. Des industriels privés, aux Etats-Unis comme au Japon, s'intéressent aussi beaucoup à ces questions. Il s'agit d'une direction évolutive très caractéristique de certaines sociétés actuelles. Elle éclaire certains aspects de l'évolution des systèmes biologiques, mais pour le moment elle n'apporte pas d'arguments à l'hypothèse de l'émergence, car les processus utilisés par les chercheurs ne présentent pas d'obscurités théoriques. Leurs recherches s'inspirent d'une démarche dite descendante (top down) supposant que des organismes vivants soient déjà là pour entreprendre la démarche consistant à reproduire des parties d'eux-mêmes. Ainsi Craig Venter qui vient de faire breveter une bactérie artificielle, le mycoplasma laboratorium, a retiré progressivement l'essentiel de ses gènes à l'Adn du mycoplasma genitalium pour n'en conserver que le strict minimum. Malgré son génome simplifié, l'organisme obtenu parait viable et capable de se reproduire dans le milieu naturel. En extrapolant à partir de cette démarche, rien n'interdit de penser que l'on puisse fabriquer des animaux nouveaux, qui pourraient se révéler plus adaptés à la survie que les animaux actuels. Certains chercheurs en intelligence artificielle utilisent la même démarche descendante en introduisant au cœur de systèmes informatiques des architectures imitées de ce que l'on connaît des réseaux neuronaux vivants.

Cependant les perspectives sont en train de changer. Les méthodes permettant de créer des entités vivantes artificielles évoluent rapidement. Les chercheurs abandonnent progressivement la démarche descendante évoquée plus haut. S'ils ne l'abandonnent pas entièrement, ils la doublent d'une démarche ascendante ou bottom-up déjà largement utilisée en robotique dite évolutionnaire. Pour obtenir des robots dotés de corps et de cerveaux aussi proches que possible de ceux des humains, on assemble des composants élémentaires et on les laisse interagir avec leur environnement, sous des pressions de sélection analogues à celles ayant accueilli sur Terre les premières briques des organisations biologiques ou neurologiques. Les résultats obtenus sont évidemment bien plus surprenants que ceux découlant d'un assemblage ou d'une programmation descendante, s'inspirant étroitement de modèle déjà analysés. Un robot entièrement programmé, comme l'était à ses débuts le chien Aibo de Sony, ne peut pas manifester la moindre créativité. Seules les pannes qui l'affecteront auront le pouvoir de surprendre son interlocuteur humain. Il s'agira d' « émergences » très mal vécues par les utilisateurs.

La démarche ascendante reproduit au contraire la logique de l'émergence faible ou plus exactement de l'évolution sur le mode darwinien classique : mutation, sélection, adaptation, extension. Elle présente un avantage mais aussi un risque, tous deux considérables et que les scientifiques n'ont pas manqué de souligner. L'avantage est proprement vertigineux. Il faut se représenter aujourd'hui l'immense champ des technologies émergentes et convergentes aujourd'hui disponibles (Nano-Bio-Info et Cogno-technologies) susceptibles de fournir des briques pour la construction d'êtres artificiels, depuis la molécule réplicative élémentaire jusqu'à des populations de robots autonomes capables de peupler l'espace galactique. Ces êtres pourront se retrouver dotés, dans le cadre de mécanismes d'évolution artificielle maîtrisés organisés par les humains, des propriétés dont disposent aujourd'hui les systèmes vivants et leurs composants générateurs de pensée et de conscience. Mais ils pourront aussi acquérir, dans le cadre d'une évolution darwinienne volontairement « immaîtrisée », des formes et des propriétés absolument inattendues et d'une grande puissance compétitive et conquérante.

Le risque serait alors également vertigineux. De quoi s'agirait-il ? Il serait que ces entités entrent en conflit darwinien avec les entités biologiques et humaines actuelles. Dans la logique darwinienne, ces conflits n'aboutiraient pas nécessairement à des extinctions massives. Ils pourraient donner lieu à des symbioses ou hybridations, analogues peut-être à celles ayant rapproché néanderthaliens et sapiens dans l'hypothèse où ces deux espèces auraient fusionné.

Ceci nous conduit à la perspective, que nous avons souvent envisagé dans cette revue, de la transition de l'humain vers le posthumain et de l'animal vers le post animal. Mais au delà de cela, comme indiqué en introduction, le développement de systèmes artificiels générant des pensées et des consciences propres posera d'importantes questions épistémologiques. Mais nous n'aborderons pas ces questions dans le présent article, déjà trop long pour un lecteur pressé.

Note
(1) Notre ami le professeur Gilbert Chauvet [www.gilbert-chauvet.com] estimait au contraire avoir développé un tel modèle. Malheureusement ses travaux ont été interrompus par sa mort au moment où il aurait sans doute pu convaincre de la justesse de ses hypothèses ceux qui mésestimaient leur portée.

Observations
De Michel Bloch et Georges Lepicard (Groupe d'étude de la Complexité" http://www.mountvernon.fr)

Je souscris à beaucoup de tes idées, je souhaite cependant faire quelques remarques sur le fond non comme expert mais comme "émergentiste non mystique".

1. L'expression "sciences de la complexité" pose effectivement problème. Nous l'utilisons, George Lepicard et moi faute de mieux, en tant qu'enveloppe de diverses disciplines permettant d'étudier les systèmes complexes. Nous définissons les systèmes complexes comme comportant des agents soit assez nombreux, soit assez variés qui ont des interactions - souvent relativement simples - entre eux et avec leur environnement d'une façon autonome mais contrainte. Nous étudions presqu'exclusivement la classe des systèmes complexes auto-organisés qui ont été bien définis par John H. Holland et le Santa Fe Institute (en anglais Complex Adaptative Systems ou CAS) et qui couvrent le vivant, l'écologie, le social et l'économique.

2. L'émergence est pour nous un concept difficile car chaque fois que nous lisons un nouvel article sur ce sujet, nous trouvons de nouvelles raisons de perplexité. Nous avons donc décidé avec Georges d'adopter une définition simple, largement reconnue : " L'émergence est une propriété apparaissant au niveau d'un système et résultant des interactions soit directes, soit indirectes entre les parties (agents ou sous-systèmes) et avec leur environnement ".
Selon Hofstadter (a) cette propriété émergente ayant en retour une action sur les parties, nous sommes dans un système bouclé à l'infini ce qui peut suffire à le rendre complexe. (b) tout système peut être étudié à divers niveaux. Exemples : cerveau (niveaux particules, atomes, molécules, neurones, concepts) et écran TV (pixels , image, histoire, concepts abordés dans l'histoire).
Pour nous, une termitière et un super-organisme social sont des émergences car elles sont le résultat d'actions et d'interactions, soit entre les termites et leur environnement, soit entre des agrégats sociaux souvent flous et instables. Ces systèmes ont de plus la capacité d'auto-organisation.
Il me semble d'ailleurs important d'associer à émergence des notions également difficiles à appréhender comme "organisation", "structure" et surtout "auto-organisation". Nos remarques ne retirent rien à ton idée d'itération constante entre l'étude du tout et des parties.

3. Bien que nous comprenions la nécessité d'une gradation dans le concept d'émergence pour, en particulier, éliminer des manifestations triviales, nous devons cependant avouer que nous avons du mal avec les notions d'émergence faible et forte, classement rencontré dans plusieurs articles mais relativement peu fréquent. Avant de finir l'article j'ai dû faire un tableau à partir de Wikipedia en français, Wikipedia en anglais et de ton texte. Malgré cela je ne suis pas très à l'aise avec cette distinction (je te joins le tableau à toutes fins utiles) et nous n'avons pas trouvé une grande cohérence entre les divers articles lus.

4. Nous nous méfions de ne pas réserver la notion de complexité et d'émergence aux systèmes à grand nombre d'agents et/ou à ceux dont on ne sait pas définir les équations.
En effet, Henri Poincaré a établi les fondements de la théorie du chaos en montrant qu'en mécanique newtonienne tant que l'on considère 2 corps (soleil-terre ou terre-lune) tout va bien mais que dés que l'on veut traiter 3 corps (soleil-terre-lune) ou plus, l'on est en face de systèmes chaotiques, instables et imprévisibles et cela bien qu'il y ait peu d'agents en interaction et que l'on sache parfaitement définir les équations qui gouvernent le système.

5. Un point commun à nos divergences est peut-être du type de celle qui a perduré entre Bohr et Einstein (même type de divergence mais pas même niveau !) sur la mécanique quantique. En effet, nous pensons que les limites à nos compréhensions des phénomènes ne sont pas dues seulement à un manque de temps, de puissance instrumentale ou de calcul ou à la présence de l'observateur mais qu'elles sont inhérentes à notre univers et à l'observateur que nous sommes : le chaos, l'incertitude, l'incomplétude sont des limites auxquelles les moyens et le temps affectés ne peuvent rien.

J'espère que ces réactions de lecteurs seront utiles.


Tableau:

Wikipedia FR. Emergence faible/Emergence forte
Causalité:
E. faible: La Dynamique causale du tout est entièrement déterminée par la dynamique causale des parties
E. forte: Il n’existe pas de lien causal entre les constituants de la structure émergente et ses propriétés propres
Observateur:
Ef: Est subjectivement interprétée par un observateur extérieur qui est surpris au premier abord
EF: Propriétés intrinsèques au système et indépendantes de toute observation
Les humains ne peuvent pas voir le lien entre le niveau micro et macro
Propriétés
Ef.: Pas de propriétés nouvelles. Exemples: Cristallisation de molécules d’eau en glace
EF.: Propriétés nouvelles. Exemples: Apparition de la vie à partir de l’inanimé et émergence de la conscience

Wikipedia En. Weak emergence/ Strong emergence
Causality:
WE: New properties arising as a result of the interactions at an elemental level
SE: Qualities not directly traceable to the system’s components level ; it is difficult to account for an emergent property’s cause
Observer
Emergence is merely part of the language or model to describe the system’s behavior
Examples Etiology, epistemology, ontology

Emergence selon Jean-Paul Baquiast. Emergence faible/ Emergence forte
Causalité:
Ef.: Le phénomène possède des causes que la science pourrait expliciter même si elle reconnaît le manque de temps et de volonté
EF.: Emergence durablement sinon définitivement inexplicable par la science : barrière d’inapplicabilité sauf probabiliste.
Exemples: Le seul exemple en fait: système d’unités quantiques

Retour au sommaire