Retour
au sommaire
Automates
Intelligents s'enrichit du logiciel
Alexandria.
Double-cliquez sur chaque mot de cette page et s'afficheront
alors définitions, synonymes et expressions constituées
de ce mot. Une fenêtre déroulante permet
aussi d'accéder à la définition du
mot dans une autre langue (22 langues sont disponibles,
dont le Japonais). |
Article
Le
cerveau bayésien
par Jean-Paul Baquiast 14/06/2008
|
Deux
articles de grande portée épistémologique
ont été publiés à un mois d’intervalle
par le NewScientist, dont la fécondité ne
cesse de nous étonner. Ces articles s'articulent
logiquement. En voici une présentation commentée
rapide.
Some
swans are grey
Le
premier article, « Some swans are grey » de
Robert Matthews (10 mai 2008, p. 44) relativise l’intérêt
de la falsifiabilité proposée par Carl Popper
dans « La logique de la découverte scientifique,
1934 » afin de distinguer les « vraies »
hypothèses scientifiques des hypothèses présentées
par les « fausses sciences » 1).
Selon Popper, une théorie scientifique ne tire pas
sa valeur du fait qu’elle est justifiée par
un certain nombre d’observations. Elle n’a de
portée que si elle laisse ouverte la possibilité
qu’une expérience puisse la falsifier, autrement
dit la contredire. Une théorie affirmant que pour
telle ou telle raison toutes les planètes sont sphériques
n’est pas démontrée par l’accumulation
d’observations montrant des planètes sphériques.
Elle peut par contre prétendre à la rigueur
scientifique car elle laisse ouverte l’hypothèse
qu’une planète puisse être cubique. Tant
qu’une telle planète cubique ne sera pas observée,
la théorie demeurera valide. Si on observait une
planète cubique, la théorie devrait par contre
être modifiée. On sait que les poppériens
avaient reproché aux freudiens de se placer en dehors
de la science expérimentale. « Vous nous expliquez
que tous ces symptômes révèlent l’existence
de l’inconscient, mais votre conception de l’inconscient
est si extensive qu’elle ne permet pas d’affirmer
que tel symptôme ne relève pas de l’inconscient
».
Ajoutons
que les expériences destinées à prouver
telle théorie ou hypothèse dépendent
de l’état de l’instrumentation scientifique,
lequel se perfectionne sans cesse. Il faut donc distinguer
l’infalsifiabilité de principe et l’infalsifiabilité
de fait. On ne dira pas qu’une théorie affirmant
la sphéricité des planètes n’est
pas falsifiable au prétexte que l’on ne dispose
pas d’instruments astronomique permettant d’observer
toutes les planètes de l’univers (infalsifiabilité
de fait). Elle est falsifiable parce qu’il suffirait
d’observer une planète cubique – ce que
rien n’interdit en principe de faire – pour
l’invalider. Si au contraire j’affirmais que
les planètes ont une âme, ce qu’aucun
instrument astronomique ne pourra jamais vérifier,
j’énoncerais une hypothèse infalsifiable
en principe.
La
critique poppérienne est aujourd’hui largement
utilisée par les scientifiques voulant montrer que
la cosmologie n’est pas une « vraie science
» 2). Selon eux, ni la théorie
des cordes ni des hypothèses telles que celle des
multivers ne peuvent être falsifiées, car elles
ne comportent pas de prédictions pouvant être
contredites par l’expérience. Ce n’est
le cas ni de relativité ni de la physique quantique
ni même d’hypothèses apparemment très
contre intuitives comme celles relatives aux trous noirs.
D’autres cosmologistes rappellent au contraire avec
pertinence qu’il ne faut pas confondre infalsifiabilité
de principe et infalsifiabilité de droit, comme indiqué
ci-dessus. Il est n’est pas possible en effet d’affirmer
qu’aucune expérience ne permettra jamais de
tester les hypothèses de la théorie des cordes
ou du multivers. Les astrophysiciens s’efforcent au
contraire en permanence d’en imaginer. 3)
Quoiqu’il
en soit, quel que soit le mérite du travail d’épistémologie
critique fait par Popper, permettant de distinguer les «
vraies sciences » des fausses sciences ou superstitions,
ce travail fait actuellement l’objet, non d’une
remise en question radicale, mais de tentatives d’approfondissement
voire de dépassement. Aujourd’hui, beaucoup
de jeunes scientifiques se plaignent de ne pas oser formuler
d’hypothèses audacieuses au prétexte
que selon Popper ces hypothèses ne seraient pas falsifiables.
Pour eux, le développement des connaissances scientifiques
ne peut se faire que sur un très large soubassement
d’hypothèses faisant parfois appel à
une imagination non immédiatement vérifiable.
C’est un peu ce que rappelait le regretté Paul
Feyerabend dans son ouvrage « Pour l’anarchisme
méthodologique ». Il ne faut pas brider l’imagination.
Ces chercheurs constatent en effet avec dépit qu’après
quelques années, leurs hypothèses, si elles
avaient été publiées, auraient été
vérifiées grâce aux progrès de
l’instrumentation.
Dans
le même temps, les conditions dans lesquelles sont
menées les vérifications expérimentales
méritent de plus en plus l’examen critique.
La preuve empirique n’existe pas en soi. Elle est
toujours construite, notamment à partir d’une
théorie implicite, sinon de véritables préjugés
non scientifiques. Dans d’autres cas, on constate
que des preuves expérimentales utilisées pour
démontre la fausseté d’une théorie
ne portent pas sur la théorie elle-même mais
sur des conséquences attribuées par erreur
à celle-ci. Par ailleurs, même des théories
reconnues comme fausses, telle la gravitation newtonienne,
peuvent encore servir de cadres de prédiction valables
dans toute une série de phénomènes
de la physique courante. Les scientifiques cherchent donc
à trouver autre chose que le test de Popper pour
garantir le caractère scientifique d’une hypothèse
ou théorie intéressant un domaine nouveau.
Sans le rejeter par principe, ils cherchent au moins à
l’affiner.
Mais
comment ? C’est là qu’intervient un raisonnement
faisant appel aux probabilités, dit bayésien
en l’honneur du mathématicien et statisticien
britannique du 18e siècle Thomas Bayes. Dans cette
approche, la « vérité » ou «
plausabilité » d’une hypothèse
est fonction du nombre de preuves qui jouent en sa faveur.
Il ne s’agit pas nécessairement de preuves
expérimentales déjà obtenues en fonction
de l’état actuel des instruments, mais de probabilités
de preuves, preuves susceptibles d’être obtenues
dans un avenir pas trop éloigné. Le chercheur
en ce cas ne cherche pas la falsifiabilité mais la
plausibilité d’une hypothèse, en accumulant
le plus de preuves ou probabilités de preuves en
sa faveur. Plus l’hypothèse est prouvée,
plus elle sera considérée comme plausible.
Mais elle ne sera pas rejetée si un certain nombre
d’expériences la contredisent. On pourrait
dire, en forçant un peu les termes, qu’une
hypothèse devient crédible dès lors
qu’elle repose sur plus de 50% de preuves favorables.
Pour choisir entre des théories rivales, c’est
la théorie qui présente le plus fort pourcentage
de résultats favorables actuels, ou la plus forte
probabilité de résultats favorables futures,
qui devra être élue. Il faudra donc faire un
véritable pari sur elle
Pour
en revenir à l’hypothèse des multivers,
celle-ci peut être considérée comme
scientifique en termes bayésiens, car c’est
elle qui est aujourd’hui compatible avec le plus grand
nombre d’observations expérimentales conduites,
non à son propos, mais à partir des théories
sous-jacentes, gravitation et mécanique quantique.
Il s’agit donc, en l’état actuel de celles-ci,
du « meilleur pari » à conseiller aux
bookmakers de la cosmologie.
Essence
of thought
Le
second article que nous présentons et discutons dans
ce texte, Essence of thought, est de Gregory T. Huang (31
mai 2008, p. 30). Il relate une direction de recherche visant
à formuler par l’intermédiaire d’une
équation unique simple toutes les opérations
réalisées par le cerveau.
Revenons
en arrière. Nous venons de voir comment les scientifiques
s’efforcent actuellement de réintroduire l’imagination
scientifique dans la pratique quotidienne d’élaboration
des connaissances. Certes, la sanction suprême que
représente l’expérience ne peut pas
être refusée. Mais la capacité de formuler
des hypothèses sur le monde ne doit pas être
inhibée par la peur de ne pas pouvoir proposer d’expériences
falsificatrices. La formulation de ces hypothèses
ouvrira obligatoirement un large éventail de vérifications
expérimentales, les unes susceptibles de confirmer
les hypothèses, les autres de les infirmer. Le retour
d’expérience permettra d’identifier celles
des hypothèses disposant du plus grand nombre de
preuves expérimentales favorables, voire de la plus
grande probabilité d’être ultérieurement
vérifiées par les expériences à
venir. Ces hypothèses seront donc considérées
comme présentant le modèle du monde le plus
apte à comprendre le milieu dans lequel est plongé
le scientifique.
Or
c’est précisément de cette façon
que les systèmes nerveux des animaux procèdent
pour construire les représentations du monde dont
ils ont besoin. Leur cerveau, ainsi que l’a bien montré
Christopher Frith 4), est bombardé
en permanence de messages venant des sens. Pour les interpréter,
le cerveau élabore des hypothèses relatives
à la signification de ces messages, en s’appuyant
sur le vaste catalogue des expériences déjà
vécues par le sujet et mémorisées dans
les aires adéquates du cerveau. Les humains ne se
distinguent pas fondamentalement en cela des autres animaux.
Si mes sens reçoivent des informations sonores et
visuelles émises par un insecte se rapprochant de
moi, mon cerveau compare ces informations avec celles correspondant
aux « signatures » qu’il a conservées
en mémoire à la suite des interactions précédentes
avec des insectes. Ceci afin d’en tirer les ordres
permettant d’éviter des situations désagréables
ou dangereuses. Le cerveau fera une première hypothèse,
en « supposant » que l’insecte est un
hyménoptère piqueur et non une mouche. Il
vérifiera immédiatement cette hypothèse
en commandant aux organes sensoriels d’affiner leurs
observations. Si l’hypothèse de l’hyménoptère
est confirmé (renforcée), restera à
la préciser : guêpe, abeille ou frelon ? Le
cerveau procédera à des observations complémentaires.
Il faudra ensuite faire des hypothèses sur la direction
et la vitesse de l’objet ciblé ainsi que sur
la meilleure façon d’éviter un choc
frontal. Le tout en quelques centièmes de seconde.
Les sous-mariniers reconnaîtront sans peine le travail
que fait un asdic moderne couplé avec un ordinateur
pour identifier un écho susceptible de révéler
la présence d’un ennemi.
Le
schéma que nous venons de décrire présente
cependant un défaut. Il laisse supposer au lecteur
que le cerveau se comporte en véritable chef d’orchestre
capable de déclencher au choix les meilleures actions
et réactions nécessaires à la survie,
comme le ferait l’humain chef de quart à bord
du sous-marin évoqué ci-dessus. En réalité,
toutes les opérations évoquées ici
se déroulent sur un mode automatique, par mise en
œuvres d’algorithmes simples. Ces algorithmes
eux-mêmes ne tombent pas du ciel, ils ont nécessairement
résulté de millions d’années
d’évolution. Mais peut-on les identifier?
La
réponse n’était pas claire, jusqu’à
ces derniers temps. On a certes proposé depuis longtemps
l’hypothèse que le cerveau se comporte comme
un système automatique de reconnaissance de formes.
Il construit une première forme hypothétique
à partir des signaux initialement reçus, il
la compare à des formes voisines conservées
en mémoire, affine si nécessaire l’analyse,
puis finalement propose un diagnostic permettant ou bien
de reconnaître et nommer la forme perçue ou
bien de la classer comme inconnue. Le tout utilise des empilements
de réseaux neuronaux du type des neurones formels
s’échangeant de l’information 5).
Cependant, la complexité du cerveau est telle que,
si l’on peut identifier à peu près bien
les mécanismes élémentaires correspondant
à ces diverses phases, une grande obscurité
demeure concernant les processus neuronaux profonds intéressant
notamment l’apprentissage et la prise de décision.
Le cerveau accomplit de nombreuses fonctions complexes,
souvent en parallèle, perception, attention, émotion,
raisonnement, mémorisation, apprentissage. Il utilise
un nombre considérable de cellules différentes,
réparties dans de multiples aires de compétences
elles-mêmes reliées par un tissu apparemment
inextricable de fibres associatives. Les échanges
entre tous ces acteurs obéissent-ils à des
logiques chaque fois différentes ou font-elles appel
à une logique commune ?
La
bonne nouvelle est qu’une réponse à
ces questions difficiles semble s’esquisser. Gregory
T. Huang rapporte en effet, dans l’article précité
du NewScientist, qu’une équipe de l’University
College London (UCL), dirigée par Karl Friston 6)
a proposé une loi mathématique qui pourrait
selon certains constituer la « grande théorie
unifiée » du cerveau. Le neurologue français
Stanislas Dehaene, professeur au Collège de France,
aurait marqué son intérêt pour ce travail,
qui devrait selon lui apporter des idées neuves très
profondes dans les sciences cognitives 7).
Les hypothèses de Karl Friston reposent sur la théorie
du cerveau bayésien inspirée des idées
que nous venons de résumer dans la première
partie de notre article, relativement à la plausibilité
des hypothèses au regard des vérifications
expérimentales. Le cerveau bayésien est conçu
comme une machine probabiliste qui fait constamment des
prédictions sur le monde et les actualise en fonction
de ce qu’il perçoit.
En
1983, le chercheur canadien Geoffrey Hinton avait suggéré
que le cerveau prenait des décisions basées
sur les incertitudes du monde extérieur. Ultérieurement
d’autres chercheurs avaient envisagé la possibilité
que le cerveau puisse représenter ses connaissances
sur le monde en terme de probabilités. Une distance
dans l’espace, ainsi, ne serait pas estimée
par un nombre unique mais par une série de valeurs
dont certaines apparaissent plus probables que les autres.
L’expérimentation, c’est-à-dire
les nouveaux messages reçus des sens, obligerait
à modifier (actualiser) ces valeurs en temps réel.
On emploie le terme de cerveau bayésien parce que
Thomas Bayes avait réalisé une méthode
permettant de calculer comment évolue la probabilité
d’un évènement au reçu de nouvelles
informations le concernant.
Le
fait que le cerveau fasse en permanence des prédictions
sur le mode bayésien concernant aussi bien les évènements
extérieurs que les modifications de ses propres états
internes n’est plus discuté aujourd’hui.
Mais cela n’explique pas pourquoi le cerveau fonctionne
de cette façon, ceci avec semble-t-il une très
grande uniformité quelles que soient les zones cérébrales
concernées. Pour expliquer cette convergence, Friston
a repris l’hypothèse du cerveau bayésien
en l’appliquant non seulement à la perception
mais à toutes les autres fonctions du cerveau. Il
montre que tout ce que fait le cerveau est conçu
pour minimiser l’erreur de perception (assimilée
au concept d’ « énergie libre »
pour des raisons que nous ne développerons pas ici,
découlant de la modélisation sur les réseaux
de neurones formels). Le corps considéré comme
une machine thermodynamique obligée pour survivre
d’économiser son énergie a en effet
intérêt à minimiser l’erreur de
perception afin de réduire le nombre d’opérations
nécessaires à l’affinement des messages
reçus des sens et minimiser par ailleurs l’effet
de surprise, toujours coûteux, lorsque l’erreur
de perception est élevée. « Tout ce
qui peut changer et s’adapter dans le cerveau le fera
pour réduire l’erreur de perception, depuis
la décharge du neurone individuel, le câblage
entre ces neurones, les mouvements des yeux et les choix
de la vie quotidienne ».
L’incitation
à la plasticité cérébrale, grâce
à laquelle le cerveau modifie ses câblages
en fonction de l’expérience, en découle.
Il s’agit du mécanisme de base permettant la
mémorisation et l’apprentissage. Mais plus
généralement, c’est l’ensemble
des échanges entre les niveaux d’entrée
des informations sensorielles et les différents niveaux
de réponse et d’intégration des couches
corticales supérieures qui obéirait à
cette exigence d’économie 8).
Selon Friston, l’hypothèse pourrait expliquer
également la façon dont s’organisent
et travaillent les neurones en charge des fonctions les
plus nobles du cerveau : l’élaboration de la
pensée et sans doute même celle de la conscience
de soi. Les neurones miroirs qui s’activent lorsque
l’on regarde un tiers exécuter un mouvement,
et qui s’activent de la même façon lorsque
l’on fait soi-même ce mouvement, sont en effet
considérés comme jouant un rôle important
dans la production de la conscience. Il serait intéressant
de montrer qu’ils fonctionnent eux-aussi sur la base
de processus simples visant à minimiser l’erreur
de perception (perception externe et perception interne).
Beaucoup des prétendus « mystères de
la conscience » pourraient s’éclaircir.
La conscience peut en effet être considérée
comme la perception par certains neurones spécialisés
des états internes du cerveau, perception organisée
autour d’un modèle du Moi développé
dans le cadre des interactions sociales. Nous reviendrons
sur cette propriété possible du cerveau Bayésien
« conscient » ultérieurement.
Si
ces hypothèses étaient vérifiées
par les diverses expériences en cours faisant à
la fois appel à des modèles informatiques
et à l’utilisation de l’imagerie cérébrale,
nous disposerions d’une explication simple permettant
de comprendre l’apparition et le développement
progressifs des réseaux neuronaux dans la suite des
espèces vivantes et ce jusqu’à l’homme.
On retrouverait en effet à la base de ces constructions
des principes universels d’organisation visant à
économiser l’énergie. On peut identifier
ces principes aussi bien dans l’anatomie et la physiologie
des cellules et organes que dans les systèmes thermomécaniques
du monde non biologique. Par ailleurs, de nombreuses applications,
en sciences cognitives, en thérapeutique humaine
et, bien sûr, en robotique autonome, pourraient être
envisagées.
Notes
1) Il faudrait distinguer théorie
et hypothèse. La plupart des articles destinés
au grand public ne le font pas, notamment ceux du NewScientist
analysés ici. Nous ne le ferons donc pas non plus.
Admettons seulement que la théorie désigne
le cadre général dans lequel s’inscrivent
de nombreuses hypothèses et aussi de nombreuses vérifications
expérimentales, dites empiriques. L’hypothèse
est généralement de portée plus limité
et ne s’accompagne pas toujours d’une formulation
théorique développée. Ainsi, au sein
de la théorie de la relativité, certains chercheurs
émettent l’hypothèse que la gravité
pourrait ne pas s’exercer de la même façon
dans tous les points de l’espace-temps. Si cette hypothèse
était démontrée expérimentalement,
elle n’obligerait pas à abandonner le cadre
théorique tout entier de la relativité, mais
à le modifier sur certains points. Rappelons par
ailleurs qu’aucune théorie scientifique ne
pouvant se prétendre définitive, il est légitime
de la présenter comme hypothétique. Mais les
théories confirmées par toutes les expérimentations
inspirées par elles présentent plus de solidité
que les hypothèses théoriques reposant sur
un petit nombre d’observations, elles-mêmes
parfois conduites dans des conditions discutables.
2) Peter Woit, Not even wrong,
traduit par Michel Cassé, Même pas fausse,
Dunod 2007
3) Voir notre entretien avec Michel Cassé.
http://www.automatesintelligents.com/interviews/2007/oct/casse.html
4) Professeur Chris Frith. Voir notre
recension de son livre Making up the mind
How the Brain Creates our Mental World http://www.automatesintelligents.com/biblionet/2007/juil/frith.html
5) Sur les neurones formels, voir
http
://www.chimique.usherbrooke.ca/cours/gch445/neurones-intro.html
6) Professeur Karl Friston http://www.fil.ion.ucl.ac.uk/Friston/
NB: Le Wellcome Trust Centre for Neuroimaging compte le
professeur Chris Frith comme chercheur émérite.
7) Voir notre entretien avec Stanislas
Dehaene http://www.automatesintelligents.com/interviews/2008/dehaene.html
8) Rappelons que dans ce schéma,
un double circuit d'information s'organise: celui des informations
reçues par les sens, informations entrantes ou bottom
up, et celui des informations émises par le cortex
qui constituent les hypothèses auquel celui-ci procède
pour essayer d'identifier les données entrées
en les comparant à des données précédemment
mémorisées. Elles peuvent être dites
descendantes ou top down. Ces données commandent
en général des mouvements du corps permettant
d'affiner les perceptions sensorielles. L'erreur de perception
résulte de l'écart entre les résultats
produits par ces deux types de circuit. C'est elle que,
pour des raisons d'économie, le système global
s'efforce de minimiser. Les organismes y réussissant
le mieux ont le plus de chances de survie.