Vers le site Automates Intelilgents
La Revue mensuelle n°64
Robotique, vie artificielle, réalité virtuelle

Information, réflexion, discussion
logo admiroutes

Tous les numéros


Archives
(classement par rubriques)

Image animée




 

Retour au sommaire

Publiscopie

A Different Universe
Reinventing physics from the bottom down

par Robert B. Laughlin
Basic Books 2005

présentation et discussion par Jean-Paul Baquiast
avril 2005



Nous avons accompagné la présentation proprement dite du livre par deux articles, l'un ayant valeur de Prologue et l'autre de conclusion provisoire, intitulé Emergence et réalité.
Les professeurs Mioara Mugur-Schächter et Jean-Louis Le Moigne ont bien voulu relire ce texte. J'ai tenu compte de leurs observations précieuses, dont je les remercie.

Robert LaughlinRobert Laughlin est professeur de physique théorique à l'Université de Stanford, où il a enseigné depuis 1985. En 1998, il a partagé le Prix Nobel de physique avec Dan Tsui et Horst Störmer pour ses travaux sur l'effet Hall quantique fractionnaire.
Il est, entre autres participations, membre de l'Académie Nationale des Sciences américaine.

Il est aujourd'hui en congé de Stanford et assume la présidence du Korea Advanced Institute of Science and Technology KAIST).

Pour en savoir plus
Page personnelle http://large.stanford.edu/rbl/index.htm
CV http://www.stanford.edu/dept/physics/people/faculty/laughlin_robert.html
Autobiographie pour le Prix Nobel http://nobelprize.org/physics/laureates/1998/laughlin-autobio.html

Prologue

Le scientifique moderne, même s'il ne pratique pas la philosophie de la connaissance ou épistémologie, ne peut pas éviter de s'interroger sur la pertinence des modèles du monde qu'il utilise, au regard de ce que pourrait être la réalité ultime. Cette question inspire aussi l'intérêt du public pour la science et pour les nouvelles hypothèses scientifiques découlant de l'utilisation d'instruments de plus en plus perfectionnés. Pour beaucoup de gens, en dehors de ses apports utilitaires, la science doit permettre de mieux connaître la nature profonde de l'univers, en permettant d'échapper à des descriptions métaphysiques qui ne se sont pas renouvelées depuis des siècles (mais il s'agit sans doute nous allons le voir d'une illusion qui relève d'une nouvelle sorte de métaphysique)

C'est la physique qui apporte le plus d'ouvertures sur ce que pourrait être l'univers. Mais malheureusement, pour ceux qui voudraient obtenir de la science une description aussi simple et homogène que possible de la réalité, la physique semble proposer des solutions différentes, sinon contradictoires. Depuis le début du XXe siècle, elle s'est divisée en trois branches également fécondes, la cosmologie qui traite de l'univers dans son entier, et la physique des particules élémentaires ou microphysique qui étudie les constituants ultimes de la matière. Entre les deux, on trouve la physique de la matière macroscopique, aux multiples applications technologiques et industrielles, qui utilise par commodité la physique quantique, mais qui travaille sur des objets et des modèles à l'échelle de nos sens ordinaires. La physique macroscopique enregistre aujourd'hui l'irruption du concept d'émergence, jusqu'ici plutôt réservé aux sciences cognitives et aux sciences de la vie, qu'elles soient biologiques ou artificielles. On peut considérer, nous semble-t-il, que le physicien Robert Laughlin, dont nous présentons un livre qui se révélera sans doute important, représente bien la génération de ce que l'on pourrait appeler les militants de l'émergence.

Ces trois branches de la physique ne peuvent pas s'ignorer, mais cependant elles ont adopté des approches qui aujourd'hui encore n'ont pas pu être fusionnée dans une représentation du monde commune.

Le « réalisme » de la cosmologie

La cosmologie s'est développée depuis Einstein en prolongement de la théorie de la relativité générale s'appliquant à des modèles globaux d'espace-temps de type « réaliste ». Ce terme veut dire que la physique cosmologiste, qu'elle soit instrumentale ou théorique, prétend décrire l'univers non pas tel qu'il serait en soi, tâche probablement impossible, mais indépendamment de ce que peut penser ou ne pas penser tel observateur particulier, c’est à dire d’une manière dotée d’objectivité au sens moderne. Les instruments utilisés pour observer le cosmos sont censés nous faire toucher du doigt la réalité, telle qu'elle est, telle qu'elle fut dans le passé ou même telle qu'elle deviendra dans le futur. Nul n'imagine qu'ils puissent décrire autre chose que le réel. C'est ce réalisme qui soutient l'intérêt du public pour les images fournies par les observatoires terrestres ou en orbite, tel le télescope Hubble ou le fameux Wilkinson Microwave Anisotropy Probe qui a mesuré ce qui reste de la radiation micro-onde supposée émise par l'univers 380.000 ans après le Big Bang.

Les cosmologistes ne sont évidemment pas assez naïfs pour penser que les interprétations audacieuses qu'ils donnent d'observations restant rares et peu explicites décrivent l'univers tel qu'il est. Ces interprétations restent juste des modèles dont il est possible de vérifier la pertinence et l'utilité par l'expérimentation. Cependant, avec notamment le développement du calcul informatique, une physique théorique pratiquement coupée de toutes possibilités immédiates d'observation a généré des modèles de plus en plus éloignés du sens commun. La frontière entre ce que les physiciens considèrent comme possédant un correspondant qui « existe réellement », par exemple les trous noirs, et ce qui relève seulement de la représentation mathématique, par exemple le voyage dans le temps, devient de plus en plus ténue. Ceci non seulement dans l'esprit du grand public mais aussi dans celui des physiciens eux-mêmes. Pour les cosmologistes, les entités qu'ils décrivent dans l'univers, aussi abstraites soit-elles (Big Bang, inflation, matière noire et énergie noire, cordes, branes) ou cet univers lui-même, de plus en plus souvent considéré comme multiple ou comportant des univers parallèles (le multivers) ne s'imposent qu'à certaines échelles d'observation. Mais d’autre part on nous dit: « l'univers est ainsi, il évoluera de telle façon, etc. », comme si la cosmologie tendait à devenir fondamentalement réaliste. Peut-être, sans cela, ne serait-elle plus financée par les institutions. C'est en considération de la « réalité » décrite par eux que les cosmologistes proposent notamment des stratégies permettant à l'espèce humaine et plus généralement aux espèces vivantes d'échapper aux multiples formes d'extinction qui les menacent. L'excellent ouvrage récent du physicien américain Michio Kaku (Parallel Worlds) illustre ce postulat épistémologiste dans toutes ses pages. Michio Kaku consacre le dernier tiers de son livre à envisager la façon dont des civilisations technologiques du futur pourront quitter notre univers vieillissant devenu inhabitable pour d'autres univers plus jeunes et plus accueillants.

Le constructivisme de la mécanique quantique

Au contraire de la cosmologie, la microphysique, dominée depuis bientôt 80 ans par la mécanique quantique, s'est orientée dans une direction toute différente. Pour la mécanique quantique, il est peu plausible de décrire de façon naïvement réaliste le monde sous-jacent à celui de notre univers quotidien macroscopique. Le physicien doit se borner à produire des représentations probabilistes qui découlent de la façon dont sa conscience enregistre les résultats des instruments qu'il utilise. Il s'agit de constructions dont il assume le caractère relatif, ce qui permet de dire que la physique quantique est constructive. Mais ceci n'empêche pas le physicien quantique d'obtenir en pratique, à partir d'entités microscopiques qu'il n'a pas besoin de décrire de façon réaliste, des résultats expérimentaux de plus en plus utilisables dans la vie quotidienne. Les succès technologiques apportés par les applications de la mécanique quantique ne se comptent plus et seront de plus en plus décisifs dans le proche avenir. Comment une science qui prétend ne pas pouvoir décrire l'univers en soi peut-elle présenter des résultats aussi riches ? Aux yeux du public et même à ceux des physiciens, c'est là un des mystères de la mécanique quantique.

Une dérive vers la sur-théorisation

Cependant, depuis quelques années, en conséquence notamment de l'apparition d'instruments dont l'utilisation exige un renouvellement théorique approfondi, la cosmologie et la physique quantique sont de plus en plus obligées de se référer aux mêmes données d'observation, celles portant sur l'énergie et les particules qui se retrouvent à toutes les échelles auxquelles on observe l'univers. Les grands accélérateurs de particules jouent un rôle clef à cet égard. On attend beaucoup par exemple du futur LHC du CERN qui entrera en service vers 2010. En provoquant des collisions violentes entre électrons ou entre protons, les accélérateurs feront peut-être apparaître de nouveaux états de la matière/énergie qui pourraient renseigner à la fois sur l'univers dans son ensemble et sur les constituants les plus petits de ce que l'on appelle encore les particules élémentaires. Depuis quelques années, ce sont principalement les observations (réussies ou avortées) provenant de ces instruments qui ont donné à certains physiciens théoriciens l'idée de rechercher une théorie mère qui unifierait les différentes forces mesurables dans l'univers, y compris la gravité dont on peut observer les effets mais dont la nature (onde ou particule) reste encore inobservable. Cette théorie, dite de la gravitation quantique s'est développée depuis quelques années sous divers noms (théorie des cordes, théorie des membranes, M. Théorie dite aussi théorie de Tout). Elle a produit d'innombrables travaux et hypothèses, dont aucune n'a pu être véritablement testée à ce jour.

Un certain nombre de physiciens considèrent cependant qu'il s'agit là d'une dérive inutile sinon dangereuse, vers la sur-théorisation. Nous y reviendrons en examinant ci-dessous la position de Robert Laughlin. On notera cependant que si cosmologistes et physiciens quantiques peuvent être conduits à coopérer dans la formulation théorique ou dans l'expérimentation de théories unifiées, leurs points de vue épistémologiques ou leurs conceptions de la réalité restent différents. Pour un cosmologiste, comme Stephen Hawking ou Michio Kaku précité, si jamais une Théorie de Tout aboutissait à élaborer une équation unifiée, elle permettrait à l'homme de comprendre, sinon modifier, le passé et le futur du monde. L'homme serait devenu semblable à Dieu, selon l'image mystique souvent employée. Autrement dit, nous serions confrontés à ce que l'on pourrait appeler le triomphe du réalisme épistémologique. Le réel n'aurait plus de secrets pour la science, tout au moins dans ses grandes lignes. Mais comment expliquer que l'homme, partie du réel, puisse jamais s'en donner une image exhaustive ? Il s'agit d'une objection majeure à la Théorie du Tout s'inspirant du réalisme.

Pour ce qui les concerne, les physiciens quantiques continuent en général, tout au moins dans leurs travaux, à ne pas se croire obligés de considérer comme indépendantes de l'observation et existant en soi les entités microscopiques utilisées dans les modèles cosmologistes, notamment la théorie des cordes, pour ne pas mentionner l'hypothétique théorie du Tout. Les différentes particules envisagées par la cosmologie, qu'elles soient identifiables par l'observation ou qu'elles restent encore hypothétiques (gravitons, cordes, membranes) ne sont pour eux ni des particules ni des ondes ni rien de comparable à quelque chose existant dans le monde macroscopique. Elles n'ont pas de réalité en soi et ne peuvent donc être observées objectivement, c'est-à-dire indépendamment d'un observateur et d'un instrument. On est donc tenté de les considérer comme des constructions de l'esprit relatives à telle époque ou à tel type d'hypothèse. Il en est de même des espaces-temps (que l'on n'appelle d'ailleurs pas ainsi) dans lesquels se « diluent » les particules en état de superposition. On dit par commodité que lorsqu'une particule n'a pas été observée, autrement dit tant que l'on n'a pas réduit sa fonction d'onde, elle est présente pour l'observateur, avec des probabilités différentes, dans tout l'univers. Mais il ne s'agit pas de l'univers des cosmologistes, il s'agit d'autre chose que l'on ne peut pas qualifier en termes objectifs, comme on le ferait de l'univers observable, qu'il soit plat, courbe ou feuilleté. De même, quant les physiciens quantiques parlent du vide quantique, il ne s'agit pas de quelque chose de physique, analogue à ce que pourrait être soit un vrai vide soit un plasma. Il s'agit de quelque chose d'indéterminable, sauf à constater que de façon imprévisible des particules peuvent en émerger avant de s'y annihiler à nouveau.

On dira que le non réalisme des physiciens quantiques n'a pas de conséquences pratiques et ne les empêche pas de collaborer avec les cosmologistes réalistes ni plus généralement avec l'ensemble des scientifiques dont les modèles font appel aux particules et autres entités quantiques. En effet, ce qui intéresse cette collaboration, ce ne sont pas ce que sont en soi ces entités, mais la façon dont elles se manifestent lorsqu'un instrument réduit leur fonction d'onde, c'est-à-dire les fait apparaître dans le monde macroscopique – ceci à plus forte raison lorsque ce n'est pas une entité seule qui est observée, mais une population de telles entités, analysable en terme statistique. Ainsi, dans l'ordinateur quantique, peu importe ce qu'est et où se situe le bit quantique en état de superposition. Ce qui importe, c'est l'état qu'il manifeste lorsqu'il est observé, c'est-à-dire lorsqu'il cesse d'être une particule quantique pour devenir une marque dans le monde matériel. De même, dans les lasers ou dans les appareils utilisant l'effet tunnel, qui mettent en oeuvre de grandes quantités d'entités quantiques, ce qui importe au scientifique sont les effets observables de ces supposées populations d'entités, une fois que leur fonction d'onde collective a été observée par interaction avec un instrument.

Est-il donc finalement indifférent de se référer au réalisme ou au non réalisme, que l'on soit scientifique ou que l'on soit simple citoyen s'intéressant à la philosophie des sciences ? Certainement pas. Comme l'a montré la physicienne et épistémologue Mioara Mugur-Schächter (voir http://www.automatesintelligents.com/echanges/2004/juin/mrc.html), il est désormais important, pour l'ensemble des scientifiques et pas seulement pour les physiciens, d'abandonner le postulat réaliste qui était celui des premiers scientifiques et qui demeure encore très vivace, nous venons de le voir, chez les cosmologistes d'aujourd'hui. Tous ces scientifiques devraient désormais, selon elle, s'inspirer de la pratique constructive des physiciens quantiques. Autrement dit, ils devraient considérer que toutes les entités microscopiques ou macroscopiques de l'univers qu'ils décrivent sont relatives à la fois à la structure de leurs instruments et de leur propre esprit.

Abandonner le point de vue réaliste présente, entre autres avantages, comme l'indique Mioara Mugur-Schächter, celui de libérer l'imagination créatrice du scientifique, en lui évitant d'avoir à considérer comme des préalables incontournables ce qui ne résulte en fait que de modèles foncièrement relativisants.

Entre réalisme et non-réalisme, émergence de l'émergence

Ceci dit, aujourd'hui, le constructivisme qui est le principe fondateur de la mécanique quantique reçoit un renfort auquel les physiciens du milieu du XXe siècle n'avaient pas pensé. Il s'agit du concept d'émergence, qui est constamment invoqué depuis quelques années par les sciences dites de la complexité. Ce concept intéresse comme nous l'avons dit la biologie, le calcul informatique mais aussi de plus en plus, grâce à des chercheurs comme Robert Laughlin, le monde de la physique fondamentale. Il n'est pas incompatible avec le non-réalisme de la mécanique quantique. Au contraire il lui donne une portée plus générale, en termes épistémologiques. Ceci apporte une raison d'être supplémentaire à l'entreprise évoquée ci-dessus de Mioara Mugur-Schächter, visant à étendre l'épistémologie de la mécanique quantique à l'ensemble des recherches scientifiques. Mais il n'est pas non plus, incompatible avec le réalisme, qu'il s'agisse du réalisme des physiciens cosmologistes évoqué plus haut, ou du réalisme positiviste qui inspire encore de nombreux chercheurs dans de nombreuses sciences. Disons simplement qu'il refuse de se faire embarquer dans des développements métaphysiques destinés à pallier les insuffisances de la théorie ou de l'expérimentation.

L'émergence remet en cause le primat du réductionnisme. Celui-ci inspire au contraire la M. Théorie ou théorie du Tout, puisqu'elle vise à donner en quelques équations les recettes permettant de reconstruire notre univers dans tous ses états, si l'on peut dire. La M.Théorie repose sur le postulat qu'en analysant les entités complexes de ce monde, par exemple les atomes, on peut en extraire les éléments fondateurs qui permettront ultérieurement de reconstruire ces entités complexes ou de les modifier. Il s'agit donc d'une démarche réductionniste analytique, conforme à ce que proposait Descartes : réduire le tout à ses parties, pour mieux le comprendre. Mais pour un nombre croissant de physiciens, il s'agit d'une entreprise vaine, reposant sur une erreur de conception fondamentale. David Deutsch (voir http://www.automatesintelligents.com/biblionet/2004/jan/deutsch.html) avait déjà constaté que la physique théorique, à elle seule, n'était pas capable d'expliquer la génération de complexité correspondant à l'apparition de la vie ou des grands systèmes cognitifs collectifs propres aux sociétés humaines modernes. Il fallait trouver un autre paradigme explicatif. Depuis les travaux fondateurs de Stuart Kauffman (At Home in the Universe, the Search for Laws of complexity and Organisation, 1996), on sait aujourd'hui que ce paradigme existe, c'est celui de l'émergence. Il peut être formulé d'une façon qui d'ailleurs n'est simple qu'en apparence : le Tout ne peut être déduit des parties. En forçant le trait, on dira que la théorie de l'émergence prend acte de l'échec de la pensée scientifique traditionnelle, analytique et mathématique. L'émergence n'explique pas tout, loin de là. Elle ne permet pas en général de comprendre pourquoi tel phénomène complexe apparaît. A fortiori elle ne permet pas de prévoir comment évoluera ce phénomène. Elle permet seulement d'affirmer que cette apparition n'est pas due à un miracle mais qu'elle relève d'un processus physique. Elle est un peu comparable en cela à la théorie de la sélection darwinienne en biologie. La diversification des espèces s'explique en général par la sélection darwinienne, mais le détail de celle-ci comme la façon dont l'évolution se poursuivra à l'avenir ne peuvent être explicités par ce principe général. Ils ne peuvent qu'être constatés a posteriori.

Au plan d'une vision générale sur l'Univers, la théorie de l'émergence ne permet pas de comprendre immédiatement pourquoi le monde est ce qu'il est et moins encore ce qu'il deviendra. Elle permet juste de comprendre qu'aucune théorie réductionniste, comme la théorie du Tout évoquée ci-dessous, ne permettra jamais d'analyser et reproduire la complexité du monde. Mais en vérité elle fait beaucoup plus. Elle oblige, comme nous le verrons, à ouvrir les yeux sur des problèmes non résolus, voire insolubles en l'état, ce qui aura le grand avantage d'éviter que leurs soient données de fausses solutions. Parmi ces problèmes non résolus se trouvent les mécanismes eux-mêmes qui permettent l'émergence. Rien ne dit qu'ils seront un jour explicités par la science. Sont-ils généraux ou propres à tel ou tel domaine de la matière et de la vie ? On ne peut le dire encore. Mais il n'est pas interdit qu'à force de travail et en évitant les fausses bonnes solutions, on puisse en faire progressivement apparaître quelques-uns.

La théorie de l'émergence relève en effet du domaine scientifique. Elle ne se borne pas à constater l'hétérogénéité ou la non-prédictabilité des phénomènes, ce qui n'aurait aucun intérêt pratique. Lorsque le scientifique constate l'apparition d'un phénomène émergent, il a tout à fait le droit de l'étudier, en faire la typologie, l'intégrer au corpus des connaissances du moment. Il ne dira pas que le phénomène émergent révèle la réalité en soi du monde, il dira seulement qu'il s'intègre à l'ensemble des relations établies ici et maintenant entre un réel inconnaissable en essence, des instruments permettant de générer des phénomènes nouveaux et des esprits humains générateurs de systèmes de représentation symbolique. Dans cette perspective, le scientifique se doit d'être d'abord un expérimentateur instrumentaliste, aux yeux grands ouverts, comme nous l'avons dit. C'est en effet en observant les phénomènes inattendus générés par le fonctionnement des appareils traditionnels ou nouveaux qu'il peut identifier des émergences pouvant expliquer ces phénomènes. Il ne prétend pas en faisant cela qu'il accède à une quelconque réalité en soi, à un quelconque univers fondamental. Il se borne à dire qu'il construit une réalité relative à lui et à ses observations, s'inscrivant momentanément et parfois localement dans le devenir de la société scientifique humaine, qui constitue elle-même une émergence plus globale.

Mais on peut penser que, même en ce cas, on ne pourra pas utiliser les mécanismes de l'émergence, à supposer qu'ils aient été compris, à générer tel univers plutôt que tel autre, sauf peut-être sur un plan très local. Les résultats obtenus auraient en effet de grandes chances d'être différents de ceux attendus, ce qui ne permet pas de grandes ambitions. Il faut se résoudre à vivre avec l'incertitude. Mais c'est peut-être ainsi que notre univers est devenu ce qu'il est.

La théorie de l'émergence ressemble ainsi un peu, au plan épistémologique, à la physique quantique. Celle-ci se refuse à postuler l'existence d'un réel en soi. Elle se borne à rassembler les interprétations relativisées des phénomènes que les observateurs voient émerger au travers de leurs instruments. A nouveaux instruments, à nouveaux observateurs, nouveaux phénomènes. Néanmoins, l'émergence de ces nouveaux phénomènes permet de construire un monde qui bien que reposant sur des fondements inexpliqués, existe cependant en termes de réalité relativisée, dans le monde macroscopique qui est le nôtre. La physique quantique est typiquement constructiviste. Elle construit un monde relatif à l'homme. On retrouvera là Protagoras: "L’homme est la mesure de toute chose". Mais l'homme n'est pas la seule mesure des choses. Comme il n'est pas le seul organisme complexe existant sur Terre, et dans la mesure où le processus de qualification des émergences provenant de l'univers quantique sous-jacent est accompli en permanence par d'innombrables organisations physiques ou matérielles en prise avec cet univers quantique, chacune de ces organisation construit sa propre réalité relative. On aura la réalité relativisée du termite ou celle de la bactérie, qui coexistera et éventuellement interagira avec la réalité relativisée construite par l'Homme. Autrement dit, on aboutira au monde complexe tel que la science humaine peut l'observer, résultant de l'activité émergente d'une infinité d'acteurs matériels et biologiques, sur fond d'indétermination quantique.

La théorie de l'émergence, au plan épistémologique, ne dit pas autre chose.

Retour haut de page


Présentation de" A Different Universe"

Le physicien Robert Laughlin s'est principalement intéressé, au cours de sa carrière, à ce que l'on pourrait appeler les états ou propriétés émergentes de la matière, lorsque celle-ci est soumise en laboratoire à des conditions extrêmes. L'exemple classique en est la superconductivité, grâce à laquelle des métaux conducteurs de l'électricité n'oppose plus de résistance au courant lorsqu'ils sont convenablement refroidis. Ce qui a frappé Robert Laughlin est qu'il est généralement impossible de prévoir les résultats d'une expérience lorsque les conditions de celle-ci s'écartent un tant soit peu des normes jusque là pratiquées L'effet Hall quantique(1), dont il a assuré la formulation théorique, ce qui lui a valu le prix Nobel, partagé avec ses deux collègues, a ainsi été découvert par hasard. Selon lui, aucune recherche a priori n'aurait pu aboutir à ce résultat, car nul esprit humain n'aurait été capable de l'imaginer. Pourtant, l'effet Hall quantique est aujourd'hui à la source de très nombreuses applications scientifiques et industrielles. L'observation initiale a été rendue possible par la conjonction, à un certain moment et en un certain lieu, d'un instrument produisant des résultats inattendus et d'esprits humains suffisamment alertes pour s'étonner de ces résultats et chercher à les comprendre. Il en est de même, selon lui, de toutes les découvertes importantes de la physique moderne. On voit que pour lui, l'émergence se produit à partir des composants primaires de la nature, inconnus de nous, et elle intéresse toutes les structures associant la matière et l'énergie. Elle ne concerne donc pas seulement les phénomènes biologiques ou leurs modèles informatique tels les automates cellulaires, comme on le croit souvent. Cependant, pour le grand public, c'est évidemment en biologie et en anthropologie que le phénomène de l'émergence est le plus visible et le moins discutable.

Robert Laughlin n'ignore évidemment rien de la mécanique quantique, dont il a eu en permanence à appliquer les principes ou les résultats dans ses propres travaux. Il a même été selon son éditeur surnommé le Robert Feynman de sa génération. Mais pour lui comme pour la plupart des physiciens, la mécanique quantique ne permet pas de comprendre l'univers en profondeur, et moins encore d'agir sur lui. Elle permet juste d'interpréter un certain nombre des phénomènes nouveaux que révèle le développement des instruments et des expériences, par exemple au sein des accélérateurs de particules. Le monde quantique, dans ses profondeurs, est et restera pour lui inconnaissable. C'est ainsi que parler de vide quantique représente simplement une façon de désigner quelque chose d'inconnaissable, sous-jacent à la réalité matérielle, dont on constate seulement telle ou telle manifestation dans telle ou telle expérience. De même les particules qui émergent du vide quantique ne sont ni des ondes, ni des particules ni les deux à la fois. Elles sont définitivement autre chose. Ceci ne nous empêche pas de les utiliser, dans certaines conditions.

Robert Laughlin n'ignore pas plus la cosmologie que la physique quantique. Mais là il se sépare profondément des travaux des cosmologistes théoriciens auxquels nous avons fait allusion dans le prologue à cet article. Pour lui, toutes les hypothèses visant à décrire de façon réaliste les états passés, présents et futurs de l'univers relèvent non seulement de la science fiction mais d'une méconnaissance profonde de ce qu'est selon lui l'univers, c'est-à-dire le produit d'une émergence. Il s'en prend particulièrement à la Théorie du Tout, qui prétendrait trouver une équation unique à partir de laquelle on pourrait déduire toutes les autres formes de connaissances. Cette ambition, triomphe du réductionnisme, selon laquelle les lois des mécanismes élémentaires permettent de déduire la loi du système complexe, ignore dramatiquement selon lui la théorie de l'émergence.

Nous nous bornerons dans cet article à une analyse rapide de « A Different Universe, Reinventing Physics ». Nous renvoyons à un prochain article les commentaires que peuvent suggérer les propos souvent passionnés et sans doute parfois contestables qui font la richesse et l'originalité du livre.


Robert Laughlin n'est pas un philosophe des sciences à proprement parler. Autrement dit, son livre fait un large appel aux affirmations et jugements affectifs plutôt qu'à de longs raisonnements. On regrette souvent qu'ayant évoqué tel ou tel thème prometteur, il l'abandonne pour une anecdote personnelle qui n'apporte pas grand-chose à la démonstration. De la même façon, il apparaît plus critique que constructif. Ainsi, après nous avoir affirmé que les nanotechnologies, très en vogue actuellement, se limitaient à propager les illusions d'une mythologie réductionniste, il ne nous montre pas par quelles autres perspectives les remplacer, sauf à dire que l'univers dans ses profondeurs n'est pas connaissable autrement que par des propriétés émergentes dont l'analyse est très difficile. Par ailleurs, bien que de lecture apparemment facile, son livre multiplie les allusions à des phénomènes physiques difficiles, qu'il ne décrit pas, renvoyant le lecteur une simple note de référence qui n'explique rien. Ainsi des phénomènes jouant un rôle essentiel dans ses démonstrations, comme la superfluidité et la superconductivité, l'effet Josephson ou l'effet Casimir. Il est un peu plus explicite concernant l'effet Hall quantique, dont l'interprétation théorique lui a valu le prix Nobel, mais là encore le lecteur non physicien ne pourra se passer d'informations complémentaires à rechercher dans un manuel ou sur le web

Comment résumer la façon dont Robert Laughlin nous invite à considérer l'émergence ? Il s'agit certainement d'un non-réalisme, très voisin nous l'avons dit de celui de la mécanique quantique. Il n'est pas possible de décrire objectivement un réel en soi. On ne peut parler que de ce qu'un observateur-acteur observe et qualifie au travers d'un instrument d'observation. Plus généralement, on ne peut pas déduire mais seulement induire. Le terme d'émergence, qui intéresse précisément l'ensemble des domaines scientifiques, implique finalement que le chercheur sera toujours surpris par ce qu'il verra apparaître et qu'il ne pourra jamais le rattacher au jeu de règles plus élémentaires supposées avoir déjà été élucidées.

Pour comprendre les grands systèmes auxquels nous avons affaire dans la nature, il n'est pas nécessaire de connaître les lois qui régulent leurs composants microscopiques, mais seulement les principes d'organisation collective qui permettent leur apparition. Plus généralement, ce ne sont pas les lois des parties qui expliquent l'émergence de l'organisation, mais plutôt cette dernière qui donne un sens et des lois aux parties. Ceci signifie notamment qu'il est illusoire de prétendre que la connaissance des lois élémentaires, intéressant par exemple les particules quantiques et les processus chimiques à l'oeuvre dans la nature, suffiront à décrire et prédire exhaustivement l'ensemble du monde auquel nous avons affaire. Robert Laughlin, reprend là le combat jamais clos contre les prétentions du réductionnisme (du démon de Laplace) à pouvoir nous dire de quoi est fait le monde et vers quoi il va. Certes, comme tous les scientifiques, il reconnaît ne pas pouvoir éviter d'être réductionniste, c'est-à-dire rechercher d'abord d'éventuelles causes élémentaires ou premières aux phénomènes encore incompris. Mais il refuse les abus du réductionnisme, conduisant à penser qu'aujourd'hui la science a tout compris et n'a plus rien de profond à découvrir.

Ce triomphalisme touchant à l'ubris est typiquement américain et fait suite aux grands succès des applications scientifiques et technologiques dont les Etats-Unis se sont enorgueillis dans les années 1980-90. Un certain nombre de philosophes ont annoncé la fin de la science, ou plutôt la fin de la nécessité de la recherche scientifique (par exemple John Horgan, The End of Science, 1997) sous prétexte que la science avait découvert les lois fondamentales de la matière et de l'énergie. Robert Laughlin affirme qu'ils se toujours trompés. On le suit bien volontiers dans cette conviction. Les ouvrages et articles de science faisant la liste des points et domaines dans lesquels plane encore le plus épais mystère sont de plus en plus nombreux en ce début de 21e siècle.

Les systèmes complexes, comme les événements météorologiques, sont régulés par les lois de leurs composants microscopiques (en l'espèce les atomes des molécules d'eau) mais dans le même temps leurs aspects les plus sophistiqués sont insensibles à ces lois et parfois même en contradiction avec elles. L'organisation en ce cas prend le dessus sur les parties et les transcende. Le concept d'organisation ne désigne pas seulement un principe théorique mais un phénomène du monde physique, aussi « réel » que les phénomènes microscopiques. Ceci s'applique évidemment aussi aux êtres vivants et à l'homme lui-même. Pour Robert Laughlin, comme il l'explique dans sa préface, ce point de vue doit être poussé jusqu'au bout Tous les systèmes physiques étudiés par la science découlent de mécanismes d'organisation collective, et pas seulement les plus complexes. Il est illusoire de distinguer des lois fondamentales dont découleraient des lois subordonnées. Ceci entraîne la conclusion que la prétention consistant non seulement à identifier ces lois fondamentales, mais à leur donner une formulation mathématique qui permettra ensuite de représenter par des équations les systèmes émergents à base d'organisation est également une illusion.

Il en résulte que la recherche des lois physiques, à quelque niveau qu'elle se fasse, ne peut se faire par la déduction. Elle doit faire appel à l'expérimentation, seule à même de faire apparaître les phénomènes complexes d'organisation que l'on serait conduit à ne pas voir en s'en tenant aux explications par les lois élémentaires. Mais encore faut-il expérimenter avec une grande ouverture d'esprit. Il ne nous dit pas clairement comment acquérir celle-ci. Peut-être considère-t-il qu'il s'agit d'un don. Pour ce qui le concerne, il bénéficie sans doute de ce don, car il nous propose dans son livre une liste d'hypothèses véritablement révolutionnaires au regard des idées courantes en physique et en cosmologie : le vide de l'espace-temps ne serait pas un vide mais un état de la matière, le principe de relativité générale n'est pas fondamental (autrement dit, la gravitation ne serait pas universelle), il existerait des barrières épistémologiques infranchissables à la connaissance théorique comme d'ailleurs à la falsification expérimentale de certaines théories. Plus généralement, comme nous l'avons indiqué, il considère qu'une partie essentielle de la physique théorique relève de la mythologie, et n'est pas très différente en ce sens de croyances religieuses. Loin d'être explicable comme l'annonce cette mythologie (Voir par exemple L'Univers élégant de Brian Greene et le second ouvrage de celui-ci, de la même veine, trop récent pour être cité The Fabric of the Cosmos: Space, Time, and the Texture of Reality, février 2005 »), le monde reste empli de choses pour le moment incompréhensibles, à commencer par nous-mêmes. La science doit nous aider à les comprendre en nous mettant, grâce à la force brute de l'expérimentation, elle-même constamment rendue plus efficace grâce à l'évolution technologique, en présence de phénomènes que nous n'avions pas vus jusqu'ici et qu'il nous faudra bien introduire dans notre représentation générale du monde.

Vivre avec l'incertitude

Les biologistes admettent que l'incertitude est inséparable de leurs représentations de la nature. On ne peut jamais prédire exactement, en s'appuyant sur les lois censées réguler les composants biologiques, la façon dont se comportera un système biologique associant plusieurs de ces composants. Mais ceci pour Robert Laughlin se manifeste à tous les niveaux d'organisation du vivant, de la molécule biologique à l'homme. Pour les physiciens, il importe au contraire d'éliminer l'incertitude, laquelle ne peut découler que d'expérimentations insuffisantes. Ceci les conduit à procéder à des mesures de plus en plus précises. Faire apparaître des erreurs de mesure conduit logiquement à remettre en cause une théorie jusque là admise. Mais le fait d'obtenir une très grande précision dans la mesure ne doit pas conduire à penser que le phénomène est définitivement décrit et maîtrisé. La physique contemporaine repose sur la connaissance de ce que l'on appelle des constantes universelles. Il s'agit en réalité d'expériences donnant un résultat universel. Il en existe dix à vingt, telle la vitesse de la lumière dans le vide ou la constante de Rydberg. Mais le caractère apparemment universel de telles expérimentations est un piège. Il conduit à faire penser que ces constantes ont mis en évidence les briques primitives à partir desquelles est construite la réalité.

Ainsi, si la vitesse de la lumière apparaît constante aujourd'hui, ce serait parce que la lumière serait une composante élémentaire de l'univers. Or prendre en considération les phénomènes d'émergence montre que cette constante elle-même résulte d'un phénomène d'organisation sous-jacent. La lumière pourrait être le produit d'une émergence. Fondamentalement, derrière les constantes, on peut retrouver si on s'en donne la peine l'incertitude et l'inconnu. Toutes les constantes dites fondamentales requièrent un contexte environnemental organisationnel pour prendre un sens. La réalité quotidienne est un phénomène d'organisation collective, se traduisant par des « vérités » statistiques ou probabilistes (ce qu'on dit depuis longtemps les biologistes comme les physiciens quantiques). On peut pour des besoins pratiques, dans le monde quotidien, décrire les objets macroscopiques comme des constructions d'atomes situés dans l'espace-temps newtonien, mais l'atome isolé n'est pas newtonien. C'est une entité quantique « éthérée » manquant de la première des caractéristiques du monde newtonien, la possibilité d'être défini par une position identifiable. Ceci apparaîtra non seulement dans les expériences de la physique quantique, mais dans les expériences de la physique des matériaux et des états de la matière intéressant la vie quotidienne. Les physiciens s'intéressant aux phénomènes macroscopiques doivent donc eux aussi apprendre à gérer l'incertitude née de l'émergence, considérée comme un aspect incontournable de toute « réalité » et la voie permettant d'accéder à de nouvelles découvertes.

Répétons-le, ceci concerne des phénomènes de la vie quotidienne, dans lesquels le public ne voit généralement aucun mystère alors qu'ils demeurent pour Robert Laughlin pleins d'inconnu. Il cite l'exemple des différentes phases permettant à la matière de passer d'un état à l'autre, par exemple du gazeux au liquide et au solide. Il s'agit de phénomènes d'organisation mal compris. On a ainsi mesuré que l'eau pouvant adopter onze phases cristallines distinctes, selon les circonstances. Certes des lois microscopiques expliquent certainement cette propriété, sinon il s'agirait d'un miracle, mais on ne sait pas montrer de façon déductive pourquoi et comment elles le font, c'est-à-dire en fait expliquer et maîtriser le phénomène d'émergence par auto-organisation qui se manifeste en ce cas.

Les lois de la matière émergente, par exemple les lois de l'hydrodynamique, peuvent être observées et même représentées par des formules mathématiques globalement satisfaisantes à grande échelle mais elles ne peuvent être calculées à partir de principes premiers, même si ceux-ci restent hautement plausibles. Il en est de même de la superfluidité et de la superconductivité, déjà évoquée dans cet article. Il s'agit, nous dit Robert Laughlin, de versions fluides d'un état cristallin solide, dont les applications industrielles sont dorénavant nombreuses. Ces états illustrent un mécanisme de plus en plus évoqué en physique, y compris en ce qui concerne les origines de la vie, la brisure de symétrie. On décrit celle-ci en disant que la matière peut spontanément et collectivement adopter des types d'organisations préférentiels qui n'étaient pas sous-jacents dans le niveau d'organisation précédent. On dit que la « décision » prise par la matière est aléatoire, parce que rien ne pouvait la laisser prévoir. Mais une fois prise, la décision est ferme et définitive. On peut toujours supposer que le « choix « de la matière est déterminé par une cause matérielle quelconque, mais on ne peut pas mettre cette cause en évidence. On parle donc de lois d'organisation émergentes s'appliquant aux grands nombres.

Robert Laughlin consacre le chapitre 5 de son livre à la mécanique quantique, notamment au processus de la mesure. Là aussi il met en garde contre la tentation d'expliquer par des termes du langage courant, masquant l'irréductibilité du monde quantique sous-jacent, des phénomènes comme l'intrication. Il nous rappelle que la matière quantique n'est pas faite d'une superposition d'ondes et de particules, comme on le dit souvent. Elle est faite ni d'ondes ni de particules, mais de quelque chose de différent, qu'il faut se résoudre à qualifier de « rien » ou d'« autre chose » sans chercher à en définir l'essence. Mais cela n'empêche pas d'utiliser la fonction d'onde pour représenter l'entité quantique avec la précision nécessaire aux applications de plus en plus nombreuses requises par la technologie moderne.

Ceci étant, et en cela Robert Laughlin se distingue d'un certain nombre de physiciens quantiques, le fait que la matière quantique « appartienne à un autre monde » (otherworldliness) ne justifie pas des « interprétations » qui selon lui relèvent de la métaphysique, parce qu'elles tentent de justifier le monde quantique en fonction des comportements collectifs qui en émergent, plutôt que l'inverse. Ainsi on parlera d'univers multiples ou d'univers « anthropique » (fait pour l'homme) simplement parce que l'on ne sait pas expliquer pourquoi l'univers quantique nous apparaît tel qu'il nous apparaît. Robert Laughlin rejoint ainsi les nombreux physiciens qui ne cherchent pas à qualifier l' « étrange » matière quantique en termes de réalisme objectif et préfèrent s'en tenir aux données expérimentales nécessairement probabilistes qu'ils peuvent en obtenir à travers leurs instruments. Le livre est riche en nombreux exemples montrant que les théories ayant successivement servi a expliquer des phénomènes physiques importants tels que la super-conductivité, le vide quantique ou la transmission du son dans la matière (via des particules quantiques de son dite phonons) ont négligé les phénomènes d'états émergents et ont été conduites à sur-théoriser (over-theorize). Il vaut mieux s'en tenir à ce que l'on sait afin de s'en servir pour comprendre ce que l'on ne sait pas encore, plutôt qu'inventer des univers adéquats, purement mathématiques et non vérifiables.

Les exemples et les arguments développés par l'auteur sont très techniques et ne peuvent être repris ici, mais la leçon générale est claire. Les mythologies mathématiques visent à justifier des descriptions réductionnistes du monde sub-atomique qui ne s'imposent pas et qu'aucun instrument ne pourra jamais vérifier, à échelle humaine tout au moins. Il est plus économique et plus profitable de postuler que le vide quantique est une phase de la matière et que la lumière elle-même est une propriété émergente de celle-ci, comme – si nous avons bien compris – la gravité sur laquelle Einstein a fondé la relativité générale et qui crée tant de difficultés aux physiciens quand ils cherchent à la rendre compatible avec la mécanique quantique. Selon l'auteur, Einstein aujourd'hui, en homme de bonne foi qu'il était, reconnaîtrait en ré-examinant les faits désormais disponibles, que son « cher » principe de relativité n'est pas fondamental mais émergent. Il s'agit d'une propriété collective de la matière constituant l'espace-temps, qui devient progressivement exacte aux grandes échelles mais ne se retrouve pas aux échelles microscopiques. « Ceci voudrait dire que les principes d'organisation de l'espace-temps ne concernent pas seulement les niveaux où la vie est apparue, mais quelque chose de beaucoup plus profond, qui reste à découvrir » (p. 126).

On conçoit que, sur cette lancée, Robert Laughlin ne se limite pas à une remise en question de la théorie de la relativité générale. Il s'en prend à l'idée très répandue aujourd'hui, y compris en technologie, que les éléments simples peuvent à eux seuls générer des structures complexes, sans faire appel à des principes d'organisation plus généraux. C'est cet espoir, selon lui, qu'entretiennent les promoteurs des nanotechnologies. Il qualifie ces dernières de carnaval des colifichets (Carnival of the Baubles). L'idée que l'on puisse construire de façon contrôlée des objets macroscopiques à partir d'une manipulation d'atomes individuels lui parait une illusion. Les technologies permettant d'obtenir des nanoproduits tels que les nanotubes ou nanocristaux sont extrêmement violentes ou complexes et donc loin d'être utilisables de façon économique. Les processus d'auto-organisation utilisés par la nature sont tout différents mais ne sont pas encore reproductibles par l'homme. Il n'est pas exclu qu'ils le deviennent un jour, de sorte par exemple qu'il soit possible de reproduire le « miracle » de la transmutation de la matière et mieux encore, celui de la vie, mais il faudra pour cela beaucoup étudier et expérimenter, en inventant des processus de pensée tout à fait nouveau. La physique en est loin actuellement, car elle ne s'est même pas aperçue du fait qu'elle ne disposait pas des processus de pensée en question.

Un mystère bien protégé

Si l'on considère qu'il est fondamental de comprendre comment fonctionnent les lois de l'organisation permettant à la complexité d'émerger, il faudrait rendre prioritaire l'étude de ces lois. Mais si cela n'a pas encore été fait, c'est pour différentes raisons que Robert Laughlin s'efforce d'aborder dans la suite de son livre. Un mécanisme qu'il appelle la protection permet à un système complexe de conserver un fonctionnement homéostatique même si ses composants tombent en panne ou manifestent des incohérences locales. Il s'agit d'une sorte d'aptitude à l'autoréparation qui est bien connue dans le vivant mais qui existe aussi dans les systèmes physiques naturels, y compris les plus élémentaires, comme la conservation de la stabilité de phase dans un métal ou un liquide. Mais ce mécanisme de protection présente un inconvénient pour l'observateur (The dark side of protection), c'est qu'il dissimule ce qui se passe exactement aux niveaux atomiques et sub-atomiques. Il faudrait pouvoir observer la matière à ces niveaux. Mais, comme on se trouve alors soumis aux règles de la physique quantique, l'observation détruit généralement ou transforme l'entité observée. On pourrait compter sur un phénomène général nommé l'invariance d'échelle pour extrapoler à partir de l'observation de petits échantillons comment pourrait se manifester l'émergence de nouvelles propriétés dans des échantillons plus grands (renormalisation). Mais les petits échantillons peuvent évoluer de multiples façons et rien ne garantit que cette évolution aboutira au type de complexité que l'on voudra expliciter dans un échantillon plus grand. Autrement dit, la renormalisation ne garantit pas la conservation du caractère étudié en cas de changement d'échelle. On parle alors de non-pertinence (irrelevance), ce qui signifie « condamné par les principes d'émergence à être trop petit pour être mesurable ».

Il est particulièrement pénalisant de ne pas pouvoir observer ce qui se passe dans les moments critiques correspondant aux transitions de phases, lorsque le système jusque là bien équilibré à la frontière de deux phases semble avoir du mal à prendre la décision de se réorganiser. Il apparaît alors un facteur causal qui grandit progressivement au point de devenir observable ou pertinente (relevant) et qui provoque le changement d'état. La protection initiale disparaît alors. Mais ce facteur effectivement causal est généralement dissimulé par de nombreux autres facteurs qui ne le sont pas. Ceci rend l'observation très difficile. Lorsque la protection devient instable, phase critique pour lui, l'observateur peut prendre pour un phénomène pertinent ce qui ne l'est pas et ne pas apercevoir la vraie cause du changement d'état qu'il voudrait mieux comprendre, afin de l'utiliser ou de mieux se prémunir contre ses effets.

En ce qui concerne la compréhension du phénomène de la vie, Robert Laughlin exprime la même défiance à l'égard des biotechnologies qu'il l'a fait à propos des nanotechnologies. Il considère que les généticiens, par exemple, ne savent pas ce qu'ils font car ils n'ont pas compris l'essentiel, la machinerie qui permet aux gènes de fabriquer des protéines par l'intermédiaire de l'ARN messager. Le processus apparaît comme incompréhensible (intractable) parce que la transcription exploite les principes de l'instabilité collective et relève donc de la « protection » telle qu'il la définit, laquelle engendre l'impossibilité de comprendre ce qui se passe exactement sous le couvert de ladite protection. Si le processus de transcription a émergé et s'est conservé dans l'ensemble des systèmes vivant, c'est parce qu'il s'est révélé nécessaire au maintien de la vie. Mais cela ne signifie pas qu'il nous devienne compréhensible. Robert Laughlin considère en tous cas qu'il est et demeurera fondamentalement incompréhensible si on se limite à l'étude microscopique réductionniste de la régulation génétique, ceci quels que soient les crédits consacrés à la recherche biologique. On accumulera les fausses pistes sans jamais trouver la bonne, qui sera sans doute toute différente. La biologie se heurte là à ce qu'il nomme les barrières de pertinence (Barriers of Relevance).

Faute d'avoir pu comprendre le rôle de l'instabilité collective dans le contrôle des systèmes complexes, les biologistes en sont réduits à des explications idéologiques, qu'il nomme des anti-théories. Le propre d'une anti-théorie idéologique est qu'elle n'entraîne pas de conséquences susceptibles d'être testées. Un exemple de telles anti-théories, selon lui, est le darwinisme. La théorie de la sélection darwinienne a d'abord été utile car elle a donné lieu à de nombreuses hypothèses testables. Mais elle est devenue ensuite une sorte de paradigme philosophique, susceptible d'expliquer tout et son contraire.

L'Age de l'Emergence

La science, selon Robert Laughlin, découvre donc aujourd'hui une nouvelle frontière, celle de l'émergence. Mais elle est encore loin de disposer des outils lui permettant de faire face aux défis qui en résultent. Deux types de « lois « continueront à s'opposer, la loi des parties et la loi du collectif. Autrement dit la science balancera toujours entre deux Ages, celui du Réductionnisme et celui de l'Emergence. Mais aujourd'hui, il est indispensable de comprendre que les succès indéniables du réductionnisme, justifiant notamment le pouvoir absolu des mathématiques, ne doivent pas faire oublier les frontières qu'il atteint. Il faut aborder l'Age de l'Emergence, y compris en acceptant toutes les fausses explications qui peuvent momentanément résulter d'une recherche nécessairement aléatoire des processus générant l'émergence. Or la science et plus généralement la société ne paraissent pas en état de la faire. Vivre à l'âge de l'Emergence signifie nous l'avons vu vivre avec l'incertitude, et cela la société ne l'accepte pas. Sous des pressions diverses, y compris politiques et économiques, la science a tendance à tenter de sauver le réductionnisme en inventant des mythologies que Robert Laughlin compare aux anciens Dieux de l'Olympe, destinés à rassurer les hommes. Parmi ces mythologies, nous l'avons dit, il range les hypothèses concernant les premiers instants du Big Bang, l'ère inflationnaire, la génération de bébé-univers, le principe anthropique, la théorie des cordes au niveau subatomique et tout ce qui fait aujourd'hui la réputation d'une certaine physique théorique renonçant à la possibilité d'être vérifiée de façon instrumentale.

Robert Laughlin ne refuse pas l'utilisation des grands instruments en astronomie ou en physique(2). Il ne refuse pas la recherche de mesures de plus en plus précises. Mais il voudrait que ces instruments soient utilisés les yeux grands ouverts sur l'insolite voire à l'incompréhensible qu'ils pourraient révéler. Il s'agit d'une démarche difficile, non programmable par le pouvoir politico-scientifique, qui repose essentiellement sur la liberté d'esprit et de création des chercheurs. Il fait le pari que, malgré le poids des appareils, de tels chercheurs existeront toujours, du moins dans les démocraties(3).

Notes

(1) Qu'est ce que l'Effet Hall quantique, théorisé par Robert Laughlin, travail qui lui a permis d'obtenir le Prix Nobel?

Qu'est-ce d'abord que l'effet Hall?
Voir http://www.cem2.univ-montp2.fr/cours/Projet2002/ProjetsMaitrise/P1/Presentation.html dont nous publions des extraits ici.
Voir aussi une présentation plus détaillée http://www.theo.phys.ulg.ac.be/~lansberg/imagesite/hall2cp/2701.htm

La découverte remonte à 1879 lorsque le physicien américain Edwin Herbert Hall, étudiant en thèse du professeur Rowland de l'université Johns Hopkins de Baltimore, plaça une feuille d'or dans un champ magnétique et lui appliqua un courant électrique.
Il observa alors une tension perpendiculaire à la direction du courant et à celle du champ magnétique. Cette tension transverse, dite tension de Hall VH, résulte de la force de Lorentz FL qui dévie la trajectoire des électrons vers un bord de la feuille, entraînant une accumulation de charges négatives sur ce bord, un excès de charges positives sur l'autre bord, et l'apparition d'un champ électrique E.
L'équilibre est atteint lorsque la force électrique FE, due au champ de Hall, compense la force de Lorentz. Une tension VH, perpendiculaire au courant I, peut être alors mesurée. Celle-ci est proportionnelle à la densité de flux magnétique B, alors que la tension longitudinale Vxx, liée aux processus classiques de diffusion des électrons dans le métal, reste faible et constante en présence d'un champ magnétique.
La tension de Hall VH, ou la résistance de Hall RH, est une grandeur intéressante à mesurer dans le domaine de la magnétométrie.
Cette mesure présente aussi un grand intérêt dans la caractérisation des semi-conducteurs au cours de leur élaboration. La mesure de VH donne en effet accès aux paramètres principaux d'un semi-conducteur, à savoir la nature des porteurs (électrons ou trous), leur densité n et leur mobilité µ.
L'Effet Hall possède des utilisations dans des domaines variés et très différents.
Par exemple, il est utilisé dans les gaussmètres, les ampèremètres, les wattmètres, les moteurs à courant continu, les multimètres analogiques, les compas magnétiques et de nombreux autres instruments et dispositifs. Ceci sous forme de sonde à Effet Hall, qui est une sonde magnétique utilisant l'effet Hall et dont la réponse est proportionnellle au champ magnétique.

L'effet Hall quantique
(voir http://www.lne.fr/fr/r_et_d/metrologie_electrique/metrologie_electrique_quantique_EHQ.shtml)

L'effet Hall quantique est observé sous certaines conditions:
- le mouvement des électrons doit être restreint de telle manière qu'ils ne puissent se mouvoir que dans un "flatland" à deux dimensions; Ceci peut être accompli en confinant les électrons dans une couche extrêmement fine d'un semi-conducteur, ainsi les transistors à effets de champ de types MOSFET sont un terrain d'exploration très fructueux.
- la température doit être très basse (aux alentours de 4.2 K ou en dessous).
- un champ magnétique très intense (de l'ordre de 10 Tesla) doit être utilisé.
Le champ magnétique, appliqué perpendiculairement à la couche de semi-conducteur, produit la tension transversale de Hall, VH, comme pour l'effet Hall ordinaire. Le rapport entre VH et le courant est la résistance de Hall.
Toutefois, à certaine valeur de température, la conductivité et la résistivité du solide tombe à zéro, comme dans le cas des supraconducteurs. Le graphique de résistance de Hall en fonction de B fait apparaître des marches, qui correspondent aux valeurs pour lesquelles la conductivité vaut zéro. Rxx et Rxy sont respectivement la résistance longitudinale et transversale
L'effet Hall quantique (EHQ) est observé à très basse température (<1 K) dans un gaz électronique à deux dimensions de haute mobilité (µ > 2 T-1), soumis à un fort champ magnétique perpendiculaire au plan de conduction. Un gaz électronique bidimensionnel peut par exemple être réalisé dans un transistor MOSFETou dans une hétérostructure en GaAs/AlGaAs. Si l'on mesure la résistance de Hall en fonction de la densité de flux magnétique B dans ces conditions expérimentales, des plateaux de résistance constante apparaissent. La résistance de Hall RH est quantifiée sur ces plateaux et la relation Rh=h/i-e2 s'applique, i étant un nombre entier.
La résistance h/e2 est également appelée constante de von Klitzing RK. La résistance longitudinale de l'échantillon révèle un comportement oscillatoire marqué (effet Shubnikov de Haas). Les plateaux de résistance Hall coïncident avec des minima étendus de la résistance longitudinale. Aux plus basses températures, la résistance dans ces minima devient infiniment petite et ne peut plus être mesurée. Par conséquent, pour le zéro absolu de température au moins, le transport de courant à travers l'échantillon s'effectue sans perte.

Application métrologique

L'effet Hall quantique est utilisé par la plupart des Instituts nationaux comme résistance étalon primaire depuis le 1er janvier 1990. A cette fin, le Comité international des poids et mesures (CIPM) a fixé la constante de von Klitzing RK à une valeur de RK-90 = 25812.807 W , soit la meilleure valeur possible pour l'état des connaissances à l'époque de la détermination. L'incertitude relative de cette constante dans le SI est d'environ 2 x 10-7 et est ainsi deux ordres de grandeur supérieure à la reproductibilité basée sur l'effet Hall quantique. L'incertitude au sein du SI n'a cependant d'importance qu'en cas de combinaison d'unités électriques et mécaniques.
Un pont de mesure de résistances de haute précision permet de comparer des résistances étalons traditionnelles (100 W and 10 W ) à la résistance de Hall quantique et par-là même de les étalonner de manière absolue. Ces résistances étalons servent dans une étape ultérieure d'étalons de transfert pour étalonner des étalons de clients. La structure de mesure mise en place par METAS permet de comparer une résistance étalon à la résistance de Hall quantique avec une précision relative de 1x10-9. Cette incertitude de mesure a été confirmée en novembre 1994 lors de la comparaison directe avec l'étalon de Hall quantique transportable du BIPM.
L'effet Hall quantique intégral est dû, (en partie seulement), à la présence d'un gap d'énergie (celui entre les niveaux de Landau). Pour expliquer l'effet Hall quantique fractionnaire, il est essentiel de considérer l'effet des interactions coulombiennes entre électrons. Dans ce cas, c'est l'ensemble du gaz d'électrons qui doit être décrit par une fonction d'onde (une fonction d'onde à N particules). L'étude des deux effets Hall quantiques est un domaine de recherche très actif de la physique de la matière condensée où sont introduites des idées comme les charges électriques fractionnaires, les anyons, les excitations topologiques (skyrmions et mérons), les états de bords, etc.
L'effet Hall quantique est aujourd'hui un défi pour la physique théorique. De façon surprenante, des structures mathématiques riches ont pu être dégagées des résultats expérimentaux. De la même manière que la spectroscopie a influencé le développement de la mécanique quantique, ces structures sont des guides incontournables pour la modélisation et la compréhension de ce phénomène.

(2) On peut aussi faire de grandes découvertes avec de petits instruments, dès que l'on garde les yeux ouverts. Ce fut le cas en ce qui concerne l'effet Hall quantique mais ce pourrait être le cas de bien d'autres effets dont on parle actuellement, par exemple la fusion crystollique, à ne pas confondre avec la fusion froide. (voir NewScientist http://www.newscientist.com/channel/fundamentals/mg18624974.100 ).

(3) Le livre est empli de nombreuses autres considérations sur le développement des sciences et des technologies, inspirées de l'expérience de l'auteur. Faute de place, nous ne les reprendrons pas ici. Manifestement, l'auteur a su se ménager une part de libre créativité et d'indépendance propre à l'esprit universitaire, dans des travaux financés par les militaires ou par les grandes entreprises de télécommunication. Il considère un peu comme un modèle à cet égard l'excentrique et génial John Bardeen, inventeur du transistor et Prix Nobel lui-même Mais même le monde universitaire n'est pas exempt (ce dont nul ne doute) de rivalités, de mesquinerie et de manque d'imagination, qu'il illustre par diverses anecdotes. Le lecteur français, pour sa part, ne manquera pas de constater l'absence quasi-totale de référence faites aux travaux de nos compatriotes. On ne sait si l'auteur les ignore ou les considère comme négligeables. Il est vrai que le milieu très spécial des Prix Nobel, qu'il a été conduit à fréquenter, n'est pas très pourvu en représentants de la science française, quoi qu'on en dise dans notre pays.

Retour haut de page


Emergence et réalité

En quoi consiste exactement la réalité dans laquelle nous vivons, et que sommes-nous nous-mêmes au sein de cette réalité ? Les mystiques donnent à cette question fondamentale des réponses toutes faites. Mais il n'y a pas qu'eux. Les philosophies s'interrogent en permanence: pourquoi quelque chose plutôt que rien? Un certain nombre de personnes (encore minoritaires au sein de l'humanité contemporaine) se tournent vers la science pour essayer d’y voir clair. On estime généralement que celle-ci ne pourra sans doute jamais fournir de réponses définitives, mais qu’avec le progrès général des connaissances scientifiques, elle offrira des perspectives de plus en plus précises. C’est la raison pour laquelle la presse scientifique de vulgarisation attire de nombreux lecteurs, même lorsque ceux-ci ne sont pas personnellement engagés dans des recherches scientifiques ou dans des développements technologiques. C’est également la raison pour laquelle les contribuables admettent volontiers que des budgets non négligeables soient consacrés à des projets ou des équipements sans applications économiques immédiates, par exemple les satellites d’observation céleste ou les grands accélérateurs de particules. Pour un esprit curieux, aimant le suspense de la meilleure qualité qui soit, il n’est pas de jours sans un évènement intéressant, lui permettant de progresser dans la compréhension de l’univers.

Ceci signifie que la grande majorité des gens, scientifiques ou non, sont « réalistes » au sens où nous l’avons défini dans de précédents articles. Ils sont convaincus qu’il existe une « réalité en soi », existant objectivement c’est-à-dire indépendamment des hommes, mais néanmoins susceptible d’être décrite par la méthode scientifique expérimentale. Celle-ci consiste à observer la réalité, y repérer des constantes que l’on qualifiera de lois, déduire de ces lois des hypothèses permettant d’en vérifier la pertinence et finalement réaliser les expériences donnant la possibilité de valider ou « falsifier » ces hypothèses. Le tout doit être fait de la façon la plus universelle possible, c’est-à-dire en évitant de se laisser contaminer par des points de vue subjectifs et en soumettant constamment le résultat de ses travaux à la communauté scientifique. A la question philosophique consistant à se demander par quel privilège les hommes auraient la possibilité d’élaborer des lois décrivant plus ou moins complètement l’univers, on répondra généralement que c’est parce que, issus eux-mêmes de cet univers et gouvernés en partie par ces lois, les hommes peuvent tout naturellement en donner des reflets relativement fidèles.

On sait que dans le monde de la réalité quotidienne, celle dans laquelle nous vivons et survivons, la méthode scientifique expérimentale ainsi résumée est généralement tenue comme susceptible de donner à l’action humaine des résultats fiables. Les observations de Newton relatives à la chute des corps lui ont permis d’élaborer les lois de la gravité, définissant un espace-temps dans lequel les grandes constructions humaines, qu’il s’agisse pour nous du viaduc de Millau ou de l’Airbus A 380, sont obligées de s’inscrire. De plus, quand nous regardons la nature, nous constatons qu’il n’y a pas que les hommes qui doivent s'accomoder de la loi de la pesanteur. Tous les animaux, tous les végétaux, tous les corps matériels y sont également soumis. On est donc tenté de considérer que la gravitation fait partie des constantes universelles à partir desquelles on pourrait inférer l'existence d'un univers en soi.

L’introduction par Einstein de la relativité spéciale puis celle de la relativité générale furent difficile à accepter par ceux qui s’imaginaient pouvoir décrire l’univers en se limitant aux données immédiates de la perception humaine. Mais une fois admises la nécessité de changer de référentiel selon le point de vue auquel se plaçait l’observateur et celle d’admettre l’existence d’espaces-temps courbes au lieu d’être newtoniens, la conviction de pouvoir décrire objectivement la réalité en soi n’était pas remise en cause. Après tout, on avait bien admis quelques siècles auparavant que nous vivions sur une sphère et non sur un plan. Aujourd’hui, comme nous l’avons rappelé dans la premier article de ce dossier, les inventions les plus bizarres de l’imagination des cosmologistes théoriciens, si elles surprennent et parfois choquent le public, ne remettent pas en cause sa conviction que la réalité est sans doute telle que les modèles cosmologistes récents la dépeignent (même s'ils ne sont pas compatibles entre eux, ainsi l’énergie noire n’est pas compatible avec le principe entropique qui implique une dissymétrie entre le début, un point zéro, et pas de fin). On admet certes que les théories n’ont pas encore été vérifiées par des expériences concluantes et qu’elles sont encore floues et contradictoires 1), mais il ne viendrait à l’esprit de personne se prétendant fidèle à l’esprit de la découverte scientifique de vouloir en revenir à l’espace-temps newtonien et moins encore à celui de Copernic. Beaucoup croient si profondément au réalisme des modèles cosmologistes qu'ils ne peuvent pas s'empêcher d’éprouver un sentiment de dépression en lisant les scénarios relatifs à la mort annoncé de notre univers, fut-elle infiniment lointaine, qui entraînera celle de toute formes de vie et de pensée. Il est vrai que d'autres, plus optimistes, s'interrogent sur la plausibilité des hypothèses qui fondent ces prévisions. Il les trouvent légères. Le réel, pensent-ils doit être différent.

L’invention de la mécanique quantique quelques années après le premier choc apporté par la relativité d’Einstein a provoqué dans l’opinion un choc beaucoup plus grand. Les physiciens de l’Ecole de Copenhague, repris par de nombreux philosophes, écrivains et journalistes, ont expliqué qu’il n’était plus possible à la science de décrire avec précision le réel en soi, tout au moins au niveau microscopique. Les atomes, les particules qui les composent, les photons porteurs de l’énergie lumineuse, tous ces objets jusqu’alors présentés dans les manuels de physique comme de petits objets matériels identifiables objectivement, cessaient de l’être. On a dit d’abord qu’il s’agissait à la fois d’ondes et de particules. Aujourd’hui, on refuse même l’emploi de ces termes qui sont trop précis. Les physiciens quantiques ne veulent plus parler de ce qu’il y a ou de ce qu’il n’y a pas derrière les seules choses dont ils sont certains, c’est-à-dire les observations auxquelles ils procèdent grâce à leurs instruments. En rejoignant certaines intuitions populaires anciennes, on a pu dire qu’il n’existait pas de réel ailleurs que dans la conscience des observateurs.

Il se trouve cependant, dans la pratique, que la révolution épistémologique induite par la physique quantique et progressivement étendue à l’ensemble des découvertes scientifiques n’a pas eu sur le réalisme philosophique fondamental qui caractérise les humains des conséquences aussi catastrophiques que l’on aurait pu le croire. Autrement dit, chacun d’entre nous continue à penser qu’il existe un réel objectif et que la science permettra progressivement de le décrire de plus en plus exactement. Cela tient notamment au fait que le monde quantique, aussi bizarre qu’il soit selon les physiciens, ne se manifeste à nous que par des phénomènes objectifs. Ce qui nous intéresse en effet n’est pas n’est pas la localisation exacte de telle particule isolée ou la nature précise de cette particule. C’est la façon dont elle se matérialise dans notre monde, soit dans le cadre de millions de ses semblables descriptibles avec certitude de façon statistique (par exemple dans un microscope à effet tunnel), soit lorsqu’elle est piégée à l’état isolé dans un appareil qui l’oblige au moment qui nous intéresse à perdre sa superposition d’état et à se manifester par un signal audible dans un instrument. Sans rien pouvoir ou vouloir dire de précis sur les profondeurs du monde quantique, les physiciens ont multiplié les observations et les appareils permettant d’utiliser à l’échelle macroscopique les « mystères » dudit monde quantique. Il existe bien des barrières successives à la connaissance de la nature profonde de l’univers, mais ne pas pouvoir les franchir a cessé de nous inquiéter car on se dit que cela ne servirait pas à grand-chose. La science macroscopique, dès lors qu’elle a su asservir au moins localement et momentanément les entités quantiques, peut continuer à progresser.

Mais voici qu’apparaît le paradigme de l’émergence. Certes, il était connu depuis longtemps et n’avait pas beaucoup inquiété les scientifiques. Nul n’ignore qu’il n’est pas possible d’inférer les propriétés d’un ensemble à partir des seuls composants de cet ensemble. Ce n’est pas en analysant une fourmi individuelle que l’on comprendra les lois de la fourmilière, et moins encore en analysant les atomes constituant cette fourmi. C’est d’ailleurs pour la même raison que nous ne nous inquiétons pas de la position et de la vitesse de chacun des atomes constituant notre fourmi, puisque seul leur regroupement en molécules et cellules constituées de milliards d’atomes nous intéresse. Ce qui nous intéresse est la possibilité d’étudier les propriétés de l’objet collectif émergent, afin d’en tirer un parti de connaissance scientifique. Dans le cas de la fourmilière ou mieux encore de la ruche, ce qui intéresse l’entomologiste est le comportement global du nid.

Identifier l’émergence

On voit cependant qu’une première difficulté apparaît, qui consiste à identifier les objets émergents afin de ne pas les confondre avec des objets susceptibles d’être analysés à partir de la connaissance de leurs composants. Si je suis en présence d’une machine relativement simple, comme l’est un moteur automobile, je pourrai analyser ses pannes en testant le fonctionnement de ses diverses parties. Si je me trouve confronté à un système complexe, comme un réseau de télécommunication dense, je serai obligé d’admettre que certaines pannes pourraient être émergentes. Je ne pourrai pas les détecter et moins encore les réparer en intervenant sur les nœuds ou les terminaux pris un par un. Je devrai me résoudre à une approche interactionniste ou même systémique, de type probabiliste.

Il n’est pas évident de se rendre compte de la complexité des objets et phénomènes du monde, entraînant la nécessité de définir des modes d’analyse et d’intervention spécifiques à la totalité et ne se limitant pas à agir sur telles ou telles de ses parties. On pourrait affirmer que le progrès contemporain des sciences repose actuellement pour l’essentiel sur cet exercice. Il oblige à sortir des approches compartimentées pour établir des synthèses. Mais jusqu’aller dans la définition des limites d’un phénomène ou d’un organisme complexe réputé émergent ? On voit la difficulté quand il s’agit par exemple de thérapeutique. Faut-il identifier puis traiter les pathologies au plan local ou à celui de l’organisme entier ? Faut-il aller plus loin et réintroduire l’organisme dans son environnement écologique ou sociologique ? 2)

Vu l’importance que représente pour l’innovation scientifique l’identification de l’émergence, on aurait pu penser que le phénomène aurait fait depuis longtemps l’objet d’études méthodologiques sur le thème : « Apprenons à ne pas confondre le Tout avec ses Parties » ou, inversement, « Apprenons à identifier un Tout possible derrière les Parties qui se manifestent à nous ». Mais rien n’a apparemment été fait de façon systématique dans cette direction. Robert Laughlin lui-même, qui se positionne comme le héraut de l’émergence en physique, ne nous dit rien de précis à cet égard, sauf peut-être à affirmer que tout est finalement émergent, y compris les constantes fondamentales de la physique que l’on avait tendance à prendre pour les briques élémentaires de l’univers global. Mais s’il s’agit d’une position philosophique intéressante au plan de la réflexion sur l’origine et le devenir de notre univers, sur laquelle d’ailleurs nous allons revenir, il ne s’agit pas d’une recette pratique permettant de déceler l’émergence afin de la traiter comme telle.

Pour préciser les choses, faudra-t-il traiter l’émergence comme un mécanisme général intervenant dans l’importe quel domaine de la connaissance scientifique ? Ou bien sera-t-il nécessaire de distinguer selon les domaines, l’émergence en biologie ne se définissant pas de la même façon que l’émergence en physique ou en sciences humaines ? A priori, nous serons tentés pour ce qui nous concerne d’essayer d’analyser l’émergence comme un phénomène global du monde profond, et non pas comme quelque chose à décliner de façon différente selon les domaines. Ceci n’empêchera pas cependant d’étudier ensuite la façon dont elle se manifeste au cas par cas, afin notamment de faire des comparaisons. Ainsi l’émergence du comportement en essaim ou celle du langage ne se produira pas exactement de la même façon dans les espèces vivantes ou dans les modèles informatiques, automates cellulaires ou robots, censés la reproduire.

Mais si détecter l’émergence est considérée comme un élément essentiel à la création scientifique, on pourrait dire qu'elle ne se produit que dans l’esprit de l’observateur. Dans le monde réel, tout est lié depuis les origines. Le propre de la découverte scientifique humaine consistera à élargir les modèles du monde qu’il se donne par la pratique expérimentale précédemment décrite. Le scientifique établit des lois et, subitement, il découvre en continuant à expérimenter que ces lois ne sont plus pertinentes et qu’il faut en proposer d’autres. Alors il parlera d’émergence. Pour identifier les « faits » expérimentaux susceptibles de remettre en cause des lois établies, il faut beaucoup de clairvoyance, de courage et une certaine dose d’inadaptation à l’establishment scientifique dominant. Robert Laughlin a développé ces points dans son livre, s’estimant sans doute lui-même un de ces scientifiques capables en gardant les yeux grands ouverts de découvrir de l’émergent là où ses collègues ne voient que du banal. On s’étonne alors qu’il n’ait pas développé un thème devenu aujourd’hui dominant en matière d’incitation à la créativité scientifique, celui de la sérendipité. On verra, en relisant les articles que nous avons publié sur ce sujet, que tout ou presque de ce qui a été dit sur la sérendipité pourrait s’appliquer à la détection de l’émergence, en faisant appel à l’abduction plutôt qu’à la déduction 3). Mais malheureusement, on constate que la sérendipité ne s’enseigne pas. Sa méthodologie reste à faire. On peut seulement réfléchir sur les nombreux exemples de découvertes pouvant lui être attribuées, et s’efforcer d’en tirer profit dans sa vie quotidienne.

Une incertitude fondamentale

La constatation troublante faite par Robert Laughlin, relative à la très grande généralité du phénomène de l’émergence, oblige à se poser la question du réalisme, évoquée au début de cet article. L’émergence est-il un phénomène appartenant au monde des « réalités » du monde macroscopique dans lequel nous nous mouvons, comme l’est par exemple la reproduction sexuée chez les êtres vivants ? Est-elle seulement une construction de notre esprit au prise avec cette réalité macroscopique, comme le sont sans doute les mathématiques ? Ou bien n’est-elle pas le signal de quelque chose de plus profond, mettant notre monde macroscopique au contact du monde quantique ?

Le lecteur de Robert Laughlin constatera, comme nous l’avons signalé, qu’il évoque en permanence des barrières de pertinence ou frontières plus ou moins absolues à la connaissance empêchant de comprendre ce qui se passe au cœur des systèmes émergents. Peu de scientifiques ont le courage de reconnaître que certains phénomènes seront à jamais inconnaissables. Pour lui, il ne s’agit pas de phénomènes intéressant le monde des entités quantiques, comme l’impossibilité de mesurer à la fois la position et la vitesse d’une particule (principe d’incertitude de Heisenberg). Il ne s’agit pas non plus de phénomènes intéressant seulement la physique des hautes énergies, comme ce qui peut se passer au coeur d’un trou noir (ou de l’entité qualifiée de telle). Il s’agit de phénomènes de la physique macroscopique, comme la « brisure de symétrie » permettant à un corps de passer d’une phase à une autre. Il s’agit aussi de toute une série de phénomènes concernant la physiologie des êtres vivants, à commencer par l’origine de la vie elle-même. Mais Robert Laughlin n’exclue pas, comme nous allons le voir, que cette inconnaissabilité soit révélatrice de l’interaction qui continue à s’exercer entre notre monde macroscopique et le monde quantique.

Faut-il cependant parler d’une inconnaissabilité absolue? On peut admettre que les origines de notre univers nous restent à jamais inconnues, compte tenu des limites de notre cerveau. Mais peut-on en dire autant de celle de la vie ? Si on estime que la vie a émergé au sein du monde physique, faut-il considérer qu’il s’est agi d’un évènement global inanalysable de façon déterministe à partir de ce que l’on sait des constituants de la matière vivante ? Faut-il renoncer à trouver des relations entre atomes et molécules permettant aujourd’hui de recréer de la vie biologique en laboratoire ? Sur un plan plus modeste, ne pourra-t-on jamais élucider en détail, afin de la reproduire artificiellement à partir du comportement des molécules individuelles, la façon dont un liquide comme l’eau passe de l’état liquide à l’état solide ? Robert Laughlin n’est pas très explicite sur ces sujets, mais on peut penser, à la lecture de son livre, qu’il répondrait par la négative.

Une des raisons susceptibles de justifier cette inconnaissabilité ou intractabilité de principe consiste à dire qu’aux phases critiques, la matière macroscopique est soumise à l’action de particules quantiques (éventuellement intriquées avec elle), qui relèvent elles du principe d’incertitude de Heisenberg et des autres propriétés du monde quantique le rendant inconnaissable. Rien n’interdit de penser, même si cela n’a pu encore être prouvé, que l’action d’une seule particule quantique abandonnant son état de superposition au bon moment (décohérence) puisse décider du sort d’un échange chimique au sein d’un neurone ou à l’occasion de la synthèse d’une protéine par l’intermédiaire de l’ARN messager. Robert Laughlin évoque fréquemment en de telles circonstances un principe fondamental de l’émergence qu’il appelle l’instabilité collective, indispensable selon lui au contrôle des systèmes complexes tels que la cellule. Cette instabilité pourrait être sensible à des effets quantiques, comme le sont dans d’autres domaines de nombreux instruments physiques perturbés par eux.

Mais alors, nous devons nous poser la question des rapports qu’il peut y avoir entre l’émergence, telle que définie par Robert Laughlin, et un processus tout aussi fondamental, celui de l’apparition du monde macroscopique à partir du monde quantique. Nous avons évoqué dans le premier article de cette série les travaux de Mme Mugur-Schächter qui montrent comment l’observateur-acteur qualifiant une entité microscopique jusque là indéterminée la crée véritablement et l’insère dans le monde macroscopique. Nous avions nous-même proposé l’idée que ce processus n’était sans doute pas réservé à l’observateur humain doté d’un équipement scientifique et d’une aptitude au langage auto-réferrant (conscience) lui ayant permis de construire les bases symboliques de connaissances caractérisant l’humanité. On pourrait admettre que tout organisme vivant entrant en relation avec des entités quantiques les « observe » par son action et se les incorpore. En employant le vocabulaire de la décohérence, on dira qu’étant constitué de milliards d’atomes du monde macroscopique, il provoque la décohérence des particules quantiques avec lesquelles il entre en contact (en réduisant de ce fait leur fonction d’onde). Ainsi se serait construit depuis ses origines et continuerait à se construire notre univers matériel. Mais les organismes vivants non dotés des instruments de physique propres à l’humanité ont-ils l’occasion d’interférer avec le monde quantique? Sans doute, puisqu’ils sont constitués d’atomes qui, dans certaines conditions, peuvent entrer en contact avec des particules quantiques ou se comporter de façon corrélée typique des comportements quantiques. Il en est de même des matériaux. 4)

Si nous avons bien compris Robert Laughlin, il ne semble pas qu’il serait en désaccord avec cette hypothèse. Pour lui, les phénomènes d’émergence aboutissant à l’apparition des objets et propriétés du monde macroscopique se sont produits dès les origines de celui-ci, à partir d’un monde quantique sous-jacent dont on ne pourra jamais rien dire. De plus et surtout, les processus précis de ces phénomènes d’émergence nous demeurent mystérieux. Mais ils ont entraîné des choix, par rupture de symétrie, dont nous pouvons prendre conscience puisqu’ils constituent le tissu même de notre univers matériel – univers matériel dont nous sommes, comme toutes les autres créatures, des parties prenantes. Ces choix paraissent irréversibles, en ce sens que l'émergence ne nous semble pas pouvoir se produire à l'envers de l'histoire qui s'est spontanément construite. Mais est-ce exact? L’émergence étant un mécanisme omniprésent, les mêmes limites à la compréhension qui nous empêchent de comprendre ses origines nous empêchent de comprendre les raisons par lesquelles elle continue à se manifester et les directions qu'elle pourra prendre, y compris en fonctionnant le cas échéant "à l'envers". Nous ne pouvons que la constater, une fois qu’elle s’est produite. Nous ne pouvons pas en agissant sur les parties de l’ensemble ayant émergé (à supposer d’avoir pu les identifier), être certain d’obtenir tel résultat plutôt que tel autre. Il faut vivre avec l’incertitude, vivre avec l’indétermination.

Robert Laughlin ne le dit pas expressément, nous semble-t-il, mais comme nous l’avons suggéré plus haut, on pourrait fortement suspecter que cette indétermination reflète l’indétermination fondamentale du monde quantique avec lequel notre monde demeurerait fortement intriqué. Autrement dit, notre monde macroscopique serait une ile de complexité flottant à la surface d'un océan quantique primordial, avec lequel elle interagirait en permanence par l'intermédiaire de particules intriquées, selon des conditions probablement à jamais susceptibles d'être explicitées dans le détail.

Ajoutons cependant que le fait de constater une émergence, à l’aide de nos sens et de nos instruments, ressemble beaucoup à la procédure d’observation/qualification propre au physicien quantique et plus généralement à tout observateur/acteur, dont Mme Mugur-Schächter nous propose d’établir une méthodologie. Nous qualifions par notre observation un élément jusque là indéterminé et nous le faisons entrer dans le réel humanisé, celui de l’univers macroscopique qui est le nôtre. Nous lui donnons alors un sens irrévocable. Nous pouvons notamment le transformer par nos technologies, comme nous le faisons de tous les objets matériels et biologiques qui nous entourent.

Ceci cependant ne nous met pas à l’abri des effets de toutes les émergences qui peuvent à tout moment et de façon imprévisible nous affecter, les unes pour nous émerveiller et les autres, peut-être, pour nous détruire.

Notes

1) On lira à ce sujet un article du NewScientist, daté du 30 avril 2005 p. 30, qui recense les difficultés et sans doute même les erreurs méthodologiques de la Theory of everything (http://www.newscientist.com/channel/fundamentals/mg18624971.500). Pour le moment la théorie des cordes et sa concurrente, celle de la gravitation quantique en lacet, sont en panne. L’auteur de l’article espère que les futurs instruments de la décade (LHC du CERN, Télescope Pierre Auger destinés à observer les rayons cosmiques et satellite GLAST d’observation des rayons Gamma), donneront des indices permettant de départager les hypothèses, mais rien n’est certain. On serait tenté de conclure en attendant comme le fait Lee Smolin cité dans l’article : « Je soupçonne que nous ne nous sommes pas encore posés la vraiment bonne question ».
2) Alain Cardon a fait de ses questions méthodologiques l’objet de son dernier ouvrage, La complexité organisée (voir http://www.admiroutes.asso.fr/larevue/2005/62/cardon.htm)
3) Sur la sérendipité, consulter Jean-Louis Swiners http://www.admiroutes.asso.fr/larevue/2005/63/serendipite.htm.
Notons que, sans parler de sérendipité, le CNRS avait abordé le sujet:
« S’attacher à la complexité, c’est introduire une certaine manière de traiter le réel et définir un rapport particulier à l’objet, rapport qui vaut dans chaque domaine de la science, de la cosmologie à la biologie des molécules, de l’informatique à la sociologie. …C’est reconnaître que la modélisation se construit comme un point de vue pris sur le réel, à partir duquel un travail de mise en ordre, partiel et continuellement remaniable, peut être mis en œuvre. …
Dans cette perspective, l'exploration de la complexité se présente comme le projet de maintenir ouverte en permanence, dans le travail d’explication scientifique lui-même,
la reconnaissance de la dimension de l’imprédictibilité. » Projet d’établissement 2002 du CNRS.

4) Sur l’intrication, voir notre article et ses références http://www.automatesintelligents.com/echanges/2004/avr/intrication.html

Retour haut de page


Article diffusé sous licence "Creative Commons" . Paternité, pas d'usage commercial, pas de modification
http://creativecommons.org/licenses/by-nc-nd/2.0/fr/

 

Retour au sommaire