Article
. Les limites de la preuve scientifique
Jean-Paul Baquiast 17/01/2015
Une
conférence de 3 jours s'est tenue à Munich
à l'Université Ludwig Maximilian (LMU Munich)
début décembre 2016, rassemblant des physiciens
prestigieux, dont des Prix Nobel, et des philosophes eux-mêmes
renommés. On en trouve le compte rendu sur le site
Quanta
Magazine. Il s'agissait de discuter un article
publié précédemment par Nature,
dans lequel les deux physiciens George Ellis et Joe Silk
reprochaient aux théories hautement spéculatives
de la physique moderne de ne pas respecter les principes
fondamentaux de la méthode scientifique.
On peut s'étonner de constater que cette question,
dont nous pensions qu'elle avait rencontré un consensus
général, fait encore l'objet de Séminiaires
aussi prestigieux. Mais le fait est là.
Ellis et Silk mettaient en cause principalement les défenseurs
de la Théorie des Cordes et de la théorie
du Multivers. Ceux-ci, s'appuyant selon eux sur le fait
que ces théories étaient « élégantes »,
s'affranchissaient du principe fondamental de la science,
consistant à ne rien affirmer qui ne puisse être
soumis à des vérifications expérimentales.
Ils
contestaient notamment les propos du philosophe autrichien
Richard Dawid qui, dans un ouvrage de 2013, String Theory
and the Scientific Method , avait identifié trois
catégories d'évidences « non-empiriques »
( ne reposant pas sur l'expérience) qui pouvaient
permettre de construire une vérité scientifique
en l'absence de données expérimentales.
Selon David Gross au contraire, confirmant le propos de
Dawid, les progrès de la science, que ce soit en
physique macroscopique, en physique quantique ou en cosmologie,
obligeaient à construire des modèles de l'univers
qui en pratique n'étaient pas testables. Ceci notamment
du fait que les machines permettant de mettre à l'épreuve
ces hypothèses étaient devenues hors de portée
des sociétés actuelles. Il a cité notamment
le LHC, dont une version considérablement augmentée,
souhaitée par les physiciens travaillant sur le collisionnneur,
ne verra pas le jour avant des années. C'est ainsi
que les pouvoirs de résolution du LHC devraient selon
Gross être augmentés des centaines de milliards
de fois pour accéder aux constituants de l'Univers.
D'où
la nécessité, pour des théories à
visées fondamentales comme la théorie des
Cordes (dite parfois dans certaines versions Théorie
du Tout) de renoncer pour le moment à toute vérification
expérimentale. Il en est de même dans le domaine
cosmologique. Comment explorer l'univers dans sa globalité,
son origine et son possible devenir. Comment prouver qu'il
n'est pas entouré d'univers semblables ou différents.
Le
principe dépassé de la falsifiabilité
Pendant
3 jours, physiciens, philosophes et scientifiques d'autres
disciplines ont discuté des limites que devrait ou
non s'assigner la démarche scientifique, en l'absence
de ce que Popper avait en son temps nommé la falsifiabilité.
Selon Popper, il n'y a de théorie scientifique que
si elle peut être mise en échec par une expérimentation
future. Ainsi Dieu ne peut être présenté
comme une hypothèse scientifique puisque le concept
ne peut être « falsifié »
par aucune expérience imaginable. Il est clair qu'aujourd'hui,
le principe de Popper, s'il est encore utile dans la science
quotidienne, n'a plus aucune pertinence en ce qui concerne
les hypothèses portant sur les lois fondamentales
de l'univers.
Les
participants au Workshop se sont mis d'accord sur le fait
qu'il fallait remplacer les évidences de la falsifiabilité
par celle de la probabilité bayésienne, développée
à partir des travaux du statisticien et prêtre
anglais du 18e siècle Thomas Bayes. La vérité
d'une hypothèse ou d'une théorie se situe
sur une échelle de 1 à 100, selon les preuves
disponibles. Ceci dépend des domaines scientifiques
concernés. C'est d'ailleurs de cette façon
que les cerveaux individuels se forgent une conviction,
en quelque domaine que ce soit.
Cette approche probabiliste de la vérité scientifique
n'est cependant pas toujours suffisante. C'est ainsi que
le physicien Carlo Rovelli, souvent cité sur notre
site, théoricien de la gravitation quantique à
boucles et présent au Workshop, ne s'estime pas satisfait
de l'approche Bayésienne. Celle-ci ne peut être
la même en physique atomique, par exemple ou en Théorie
des Cordes. La première est dans l'ensemble certaine
à 100%, compte-tenu d'innombrables confirmations
provenant notamment de la physique atomique. La seconde
ne peut se prévaloir que peut-être 10% d'espoirs
de confirmation. Ceci ne signifie pas qu'elle ne soit pas
moins scientifique que la seconde. Carlo Rovelli reproche
à l'ouvrage de Dawid de semer de la confusion. Un
certain nombre de théoriciens des Cordes s'appuient
sur lui pour affirmer que la Théorie est vérifiée,
ce qu'elle n'est évidemment pas encore.
D'autres
approches du supposé Réel
Nous
ne résumerons pas ici la suite des débats,
qui se sont manifestement répétés sans
apporter de perspectives vraiment nouvelles. Pour notre
part, observons que si la physicienne Mioara Mugur Schächter,
des travaux de laquelle nous nous sommes beaucoup inspirés
ici, avait participé au WorkShop, elle aurait certainement
rappelé le principe fondamental qu'elle a développé,
sous le nom de Méthode de conceptualisation relativisée
(MCR).
Dans
le domaine de la preuve des théories scientifiques,
il faut rappeler que pour elle il n'existe pas de Réalité
en soi, descriptible comme l'est dans la science quotidienne
un objet ou un événement. Le Réel est
toujours le résultat de la mise en relation d'un
observateur, des instruments qu'il utilise et d'un infra-réel
non accessible directement.
Comme
les observateurs et les instruments, avec le développement
des connaissances scientifiques, évoluent en permanence,
la Réalité ne peut donc qu'être relativisée
et, bien entendu, évolutive. On reconnaît là
un des fondements de l'approche épistémologique
de la mécanique quantique, mais Mioara Mugur Schächter
propose de l'appliquer à tous les domaines scientifiques.
C'est ce que nous avons fait pour notre part dans nos articles
théoriques.
Nous
proposons d'ajouter à ces considérations la
prise en compte, non seulement de l'observateur, mais de
son cerveau. Comme nous l'expliquons rapidement dans l'article
de décembre 2014 (2e partie) L'Univers
est-il unique ? Ou non ? Et notre cerveau, quel est-il?
(et en priant le lecteur de nous pardonner de nous citer):
« ...notre
cerveau sera-t-il jamais capable de seulement imaginer des
modèles de l'univers suffisamment riches pour apporter
des réponses aux mystères que sont pour nous
les Singularités. En conséquence nous pourrions
jamais les mettre à l'épreuve, avec nos instruments
actuels ou d'autres à inventer. Comme le rat au bord
de la mer qui n'imagine pas de lointains rivages, nous sommes
peut-être immergé dans un univers où
les Singularités trouveraient des explications toutes
simples. Mais notre cerveau ne peut se représenter
un tel univers.
Pourrait-on espérer améliorer les performances
de ce cerveau, soit par des modifications génétiques
soit par l'appel à l'intelligence artificielle? En
principe oui. En pratique non, car il faudrait auparavant
savoir dans quelles directions chercher et le type d'améliorations
nécessaires. »