Retour au sommaire
DU CÔTÉ
DES LABOS
article
en cours d'écriture
Automates
Intelligents s'enrichit du logiciel
Alexandria.
Double-cliquez sur chaque mot de cette page et s'afficheront
alors définitions, synonymes et expressions constituées
de ce mot. Une fenêtre déroulante permet aussi
d'accéder à la définition du mot dans
une autre langue (22 langues sont disponibles, dont le Japonais). |
Les
Interfaces Cerveau/ordinateur non invasifs ont le vent en poupe
Christophe
Jacquemin 02/02/07
La
firme japonaise Hitachi a annoncé avoir créé
et testé une nouvelle interface non invasive(1)
qui permet à celui qui la porte d'agir par la pensée
sur un commutateur de puissance marche-arrêt. Les expériences,
qui consistaient à actionner le commutateur de puissance
d'un train modèle réduit, s'appuient sur la topographie
optique, technique de neuro-imagerie qui emploie la lumière
proche de l'infrarouge pour tracer la concentration de l'hémoglobine
du sang dans le cerveau(2). Identifiant
ses variations d'écoulement en fonction de l'activité
cérébrale, le système traduit ces changements
en signaux de tensions pour commander des dispositifs externes.
Rien de trop révolutionnaire ici car il s'agissait juste
pour l'instant d'actionner un commutateur on/off d'un train
électrique. Mais les chercheurs espèrent affiner
rapidement les potentialités du système. Car selon
eux, une meilleure connaissance des variations de concentration
du sang en fonction des diverses activités du cerveau
devrait rapidement mener à la commande d'opérations
mécaniques plus complexes. A court terme, on peut penser
à l'utilisation de l'interface dans le domaine de la
réadaptation cognitive. Sont aussi évoquées
à plus long terme des applications permettant aux paralysées
de recouvrir une certaine indépendance par l'action directe
de systèmes par la pensée, et la possibilité
d'effectuer des actions basiques. Hitachi espère commercialiser
son système d'ici 5 ans.
Rappelons que le secteur des interfaces Cerveau/ordinateur (Brain
Computer Interface [BCI]) a le vent en poupe et que nombreux
sont aujourd'hui les laboratoires et compagnies travaillant
sur les interfaces non invasives. Jusqu'où ces dernières
permettront-elles d'aller ? Constitueront-elles la panacée
face aux techniques invasives qui rappelons-le, nécessitent
la pose d'électrodes dans le cerveau, avec tous les risques
de rejets correspondants(3).
Dans le cas des techniques non invasives, le problème
d'une mauvaise résolution du signal à cause de
son atténuation par les tissus et os crâniens a
souvent été souligné. La forme ronde du
crâne vient également entraîner une dispersion
et un brouillage des ondes électromagnétiques
créées par les neurones. Ainsi, même si
les ondes peuvent tout de même être détectées,
il est plus difficile ici - par rapport aux méthode invasives
ou semi-invasives - de déterminer le secteur du cerveau
qui les a créées ou les actions générées
par différents neurones. Par ailleurs, la méthode
non invasive nécessite un entraînement intensif
du sujet à la maîtrise de cette technologie.
Quoi
qu'il en soit, les progrès sont là, avec notamment
la conception d'algorithmes toujours plus sophistiqués
dans la localisation de la source, l'acquisition des données
et leur mise en relation, conduisant à l'étude
d'une plus large bande de fréquences et à une
meilleure fiabilité dans les résultats (exactitude
du signal de commande).
Dès
lors, les casques non invasifs ne cessent de laisser envisager
les applications les plus diversifiées, qu'il s'agisse
d'apporter une aide aux personnes handicapées ou d'"augmenter"
les possibilités de tout un chacun grâce à
un interfaçage homme/machine plus direct. Il y a déjà
sept ans, nous signalions dans ces colonnes la commercialisation
par la société IBVA [Interactive Brain Wave Visual
Analizer)] de
son système, permettant de contrôler différents
appareils par la pensée. La méthode ici ne
s'appuie pas sur le traçage de l'hémoglobine mais
sur l'analyse des ondes cérébrales et leur transformation
en signal numérique, données pouvant par exemple
être converties en son, voire en musique au format MIDI,
ou en tout autre format d'entrée destiné à
des logiciels ou des appareils externes (lecteurs CD, caméscopes...).
Grâc e
à ce dispositif(4) et
à la suite des recherches poursuivies par IBVA, il est
désormais possible d'envoyer des messages par internet
en contrôlant la machine par ses ondes cérébrales...
Les musiciens peuvent effectuer directement le mixage de leurs
arrangements musicaux par la pensée. Les accros des jeux
vidéos expérimentent le déclenchement d'actions
simplement en y pensant (contrôler un joystick, soulever
et aligner des pierres par la pensée). Ceci nécessite
bien sûr un entraînement de la part du porteur du
casque pour générer le signal adéquat,
correspondant aux actions désirées.
|
BCI et art
Signalons aussi l'utilisation
de ces possibilités dans le domaine artistique.
S'appuyant sur le système de la société
IBVA, le Japonais Ikuo Nakamura présentait ses
"neuros hologrammes"(5)
lors de l'exposition Holographic Network tenue
à Berlin en 1996. Représentées
sous forme d'un hologramme (voir images à droite),
les ondes cérébrales de son cerveau étaient
analysées et traitées en temps réel
sur ordinateur, commandant un système de multi-éclairage
illuminant l'hologramme. Une manière, selon l'artiste,
de visualiser l'inconscient à l'oeuvre ? Ou tout
du moins d'illustrer de façon métaphorique
"The Holonomic Brain Theory" (mémoire
holographique) émise par le neurophysiologiste
américain d'origine austro-tchèque Karl
Pribram(6).
|
|
|
|
|


|
|
Des
systèmes portables...
Nombreuses
sont les entreprises produisant aujourd'hui des appareillages
non invasifs. Signalons par exemple la société
autrichienne g.tec Guger Technologies qui propose notamment
le "g.MOBIlab"(7),
ordinateur de poche contrôlé par la pensée
présenté en 2005 par le Dr Christopher Guger au
Salon CeBIT de Hanovre.
Lappareil est livré avec des électrodes,
des capteurs de contacts crâniens, un écran et
des logiciels dapplication. Le patient sentraîne,
par lexercice de la maîtrise de la pensée,
à mettre le curseur de lécran à droite,
puis à gauche. Une fois acquise la maîtrise de
lappareil, les entrées sorties du BCI Pocket peuvent
être branchées pour effectuer dautres télécommandes.
L'idée est aussi ici de pouvoir fournir aux scientifiques
un appareillage(8) vraiment
portable et mobile permettant d'acquérir les biosignaux
(qu'ils s'agissent de ceux venant du cerveau, des muscles, de
la peau...). Il peut ainsi été utilisé
pour toutes sortes de recherches concernant le vivant placé
dans des conditions extrêmes : simulateur de vol, chambres
de pression, accélération dans les véhicules,
haute montagne (a été utilisé pour étudier
les effets de l'altitude sur les électroencéphalogrammes
et électrocardiogramme des alpinistes lors d'une expédition
en Himalaya)...
|
BCI et réalité virtuelle
ou comment se promener par la pensée dans une ville
imaginaire
Combiner
un Brain Controler Interface (BCI) non invasif avec les
technologies de réalité virtuelle offre
la possibilité de réaliser une interface
«naturelle» pour se déplacer par la
pensée (juste en imaginant des mouvements) - et
en temps réel - dans un environnement virtuel.
Dans ce cadre, une étape très importante
a été présentée en 2004* par
un groupe de scientifique travaillant avec la société
autrichienne Sg.tec Guger Technologies.
Le BCI transforme les signaux bioélectriques du
cerveau, modulés par l'activité mentale
(par exemple imaginer le mouvement de son pied ou de sa
main) en un signal de commande. Il a été
montré que ce signal pouvait être utilisé
pour avancer, rester immobile ou reculer dans un environnement
virtuel se composant d'une rue située dans une
ville imaginaire.
Pour mener à bien l'expérience, il a d'abord
fallu identifier les signaux générés
dans le cerveau, puis entraîner l'utilisateur à
générer en temps réel les "bons"
états mentaux.
Le
participant, assis sur un siège et la tête
recouverte d'un casque (EEG) et de lunettes spéciales
est placé dans un environnement virtuel immersif
de type "CAVE", lui donnant l'illusion d'être
physiquement dans une rue (peuplée ici de 16 avatars
et de boutiques de chaque côté).
Ayant été entraîné préalablement
à maîtriser les "bons" signaux
de son cerveau, il lui suffit d'imaginer mentalement le
mouvement de ses pieds, pour progresser en avant ou en
arrière dans cet environnement, et le mouvement
de sa main droite pour arrêter la progression.
Voir
la video
*R.Leeb, C. Keinrath, C. Guger, R. Scherer, D. Friedman,
M. Slater, M. et G. Pfurtscheller : "Using a BCI
as a navigation tool in virtual environments" publié
dans les Proceedgins of the 2nd International Brain-Computer
Interface Workshop and Training Course, pp.49-50, Septembre
2004.
|
|
Vers la machine
à écrire mentale ?
Sera t-il possible dans un futur
proche de pouvoir écrire directement à toute vitesse
un texte sur ordinateur simplement en pensant aux mots que l'on
voudrait voir s'afficher ? Pour l'instant, on en est encore
loin : les systèmes ne permettent ici que de contrôler
la position d'un curseur sur écran, et donc de passer
par des artifices logiciels pour choisir chaque lettre, ce qui
demande à la fois un entraînement pour pouvoir
contrôler le curseur, mais aussi un temps assez long pour
écrire les mots. En
tous cas, ces systèmes peuvent s'avérer d'un grand
secours pour les personnes totalement handicapées, mais
dont le cerveau est intact.
C'est dans ce cadre que des
chercheurs de lInstitut Fraunhofer de Berlin et de la
clinique neurologique de l'hôpital berlinois de la Charité
présentaient en mars dernier leur "machine à
écrire mentale" au salon CeBIT 2006 de Hanovre.
Placés sur la tête, les 128 senseurs du casque
(un autre prototype en contient 64) enregistrent les signaux
cérébraux envoyés par le cortex moteur
primaire. Ceux-ci sont envoyés par câble à
l'ordinateur, analysés et filtrés grâce
à un logiciel innovant, puis transformés en commande.
Pour guider le curseur, "il faut s'imaginer prendre
une balle dans la main droite ou la main gauche, penser que
l'on bouge une porte avec un pied ou que l'on tire un but"
expliquent les professeurs Klaus-Robert Müller et Gabriel
Curio. "Chaque mouvement imaginé commande un
déplacement du curseur sur l'écran, permettant
par élimination de choisir des lettres, et d'écrire".
Fruit de cinq ans de travail, ce prototype - et selon ses concepteurs
- ne requiert pas un grand entraînement(9),
grâce au logiciel auto-apprenant développé
par les chercheurs de l'Institut Fraunhofer. "L'ordinateur
s'adapte à chaque personne, il faut seulement compter
quinze à vingt minutes pour configurer un profil individuel"
indique Gabriel Curio. Ensuite l'essentiel est de se détendre
et de se concentrer sur un mouvement précis. Lors des
derniers tests, le patient est arrivé à émettre
jusqu'à 50 choix de lettre par minute, contre 5 à
10 au début du projet. Cinq à sept mots peuvent
être écrits à la minute. "Si d'autres
personnes ont développé avant nous l'interface
cerveau-ordinateur, nous avons changé de paradigme :
c'est l'ordinateur qui s'adapte à la manière de
réfléchir du patient. Cela fait gagner temps et
souplesse".
Il faut toutefois noter ici le problème du temps d'installation
(près d'une heure) du bonnet car chaque électrode
doit toucher le cuir chevelu à un endroit précis.
Mais les chercheurs travaillent maintenant à la portabilité
du système et au développement d'une nouvelle
technologie d'électrodes qui permettrait de développer
un électroencéphalogramme à partir du port
d'un simple bonnet.
L'équipe imagine également d'autres applications
: permettre à une personne paralysée de diriger
sa chaise roulante par la pensée, actionner directement
une prothèse (à partir de la reconnaissance de
la pensée associée au mouvement désiré
du membre), écrire ou jouer sur ordinateur. Les chercheurs
travaillent également avec l'industrie automobile, imaginant
que si un conducteur portait une casquette remplie d'électrodes,
reliées sans fil à un ordinateur de bord, celui-ci
pourrait analyser son état de fatigue et de concentration
et émettre à son intention des données
adaptées, en vue de rendre la conduite du véhicule
plus sûre.
|
Une technique alternative pour "parler par la pensée"
?
Une
autre technique pourrait s'avérer intéressante
dans le domaine de l'énonciation directe des mots
par la pensée. Bien qu'il ne s'agisse pas ici de
Brain Controller Interface (BCI) proprement dit [puisqu'ici
est récupéré un électromyogramme
(EMG) analysant l'activité électrique des
muscles], elle mérite d'être signalée
dans cet article. L'équipe de Chuck Jorgensen,
chercheur à la NASA au Ames Research Center (Californie),
a ainsi fait breveter un système dans lequel de
petits capteurs placés sous le menton et de chaque
côté de la pomme d'Adam permettent de recueillir
des signaux nerveux analysés par un logiciel qui
les convertit en mots [notre
actualité du 04 mai 2004]. "Une personne
utilisant ce système subvocal ["subvocal
speech"] pense des phrases et les prononce pour
elle-même, si doucement que les mots sont inaudibles,
mais la langue et les cordes vocales reçoivent
les signaux de parole émanant du cerveau",
explique le chercheur.
Le
travail, issu d'un programme commencé en 1999*,
s'est tout d'abord focalisé sur la reconnaissance
de six mots (stop, go, gauche, droite, alpha, oméga)
et de dix chiffres (de 0 à 9) que les chercheurs
répétaient subvocalement (nb : aujourd'hui
le système permet de reconnaître 25 mots
et 38 voyelles et consonnes). Cette reconnaissance des
mots s'est avérée précise à
92% (certains à 99%)**. Les chercheurs ont aussi
donné à chaque lettre de l'alphabet des
coordonnées sur une grille, permettant d'identifier
chaque lettre par une paire de chiffres. Devant un ordinateur,
ils ont aussi vérifié la possibilité
de lancer silencieusement une requête sur un moteur
de recherche, simplement en épelant en silence
le mot "NASA". "Nous avons numéroté
électroniquement les pages de résultats
de la requête et nous avons utilisé ces numéros,
une nouvelle fois (sans parler à voix haute) pour
choisir les pages web à consulter. Cela a permis
de prouver que nous pouvons consulter internet sans toucher
un clavier". ***
L'équipe
se focalise aujourd'hui sur le développement de
nouveaux senseurs plus performants, sans fils.
Un tel système -s'il pouvait être rendu portable
- pourrait aussi être utilisé par des personnes
vo ulant
parler au téléphone sans être entendues,
par des gardes du corps ou des militaires pour communiquer
discrètement entre eux. Il pourrait aussi être
aussi utile aux astronautes comme toute personne portant
une combinaison avec système de respiration, ou
travaillant dans un environnement bruyant (conducteurs
de tank, par exemple), les handicapés ou même
être utilisé dans les logiciels actuels de
reconnaissance vocale, pour en améliorer la précision.
Voir
la video
*
Il
s'agit du programme "Subvocal" de la NASA, faisant
partie du programme "Extension of the Human Senses".
L'agence militaire américaine DARPA (The Defense
Advanced Research Projects Agency) s'intéresse
de très près à ces travaux.
**B.J. Betts and C. Jorgensen, "Small Vocabulary
Recognition Using Surface Electromyography in an Acoustically
Harsh Environment," tech. memo TM-2005-213471, NASA,
2005 (consulter
l'article).
***C. Jorgensen and K. Binsted, "Web Browser Control
Using EMG Based Sub Vocal Speech Recognition," Proceedings
of the 38th Hawaii International Conference on System
Sciences (HICSS'05), pp. 294c, 2005
|
|
Commander
des robots par la pensée ...
Dans le cadre d'un programme de recherche financé par
la DARPA, les chercheurs de l'université John Hopkins
ont déjà montré qu'il était possible
de contrôler par la pensée les mouvements simples
d'une main robotisée, sans avoir recours aux techniques
invasives..
Bob
Ramussen, agissant par la pensée sur une main robotisée
Voir
la vidéo
Plus
récemment, c'est au tour de l'Institut japonais international
de recherches avancées en télécommunications
(ATR) et du laboratoire de recherche de Honda (HRI) d'annoncer
le contrôle d'une main robotisée, avec la réalisation
de leur "Brain machine interface". La technique s'appuie
ici sur la représentation de l'activité du cerveau
(réponses hémodynam iques)
à partir de l'imagerie par résonance magnétique
fonctionnelle (fMRI). Si la technologie d'acquisition des données
mise en jeu est assez lourde (mais non-invasive) [voir
notre article du 26 mai 2006], elle est potentiellement
applicable à d'autres types de mesures de l'activité
cérébrale telle que celle des champs magnétiques
et électriques générés, les type
d'ondes.... Si il ne s'agit pas ici du port d'un casque, les
chercheurs travaillent cependant à la réalisation
de systèmes bien plus compacts, qui pourraient devenir
portables.
Pour
leur part, les chercheurs de l'Université de Washington
(Neural Systems Lab) ont annoncé en décembre 2006(10)
le contrôle par la pensée des mouvements d'un robot
humanoïde, travaux présentés par l'équipe
du Dr Rajesh Rao, du Neural Systems Group(11)
lors du Brain-Computer
Interfacing Meeting tenu à Whistler, B.C.
L'humain qui pilote le robot porte
un casque non invasif équipé de 32 électrodes
qui recueillent par électroencéphalographie des
ondes émises par le cerveau. L'expérimentateur
regarde le robot agir à partir de deux caméras
branchées sur l'écran de son ordinateur. L'une
est montée sur le robot et l'autre au-dessus de lui.
L'expérimentateur doit alors se concentrer mentalement
sur des ordres
simples, tels qu'avancer, reculer, déplacer un objet
pour que l'humanoïde s'exécute. En
plus de lEEG traditionnel, le système utilise
londe P300 de l'expérimentateur, onde qui se manifeste
dans le cerveau lorsque nous sommes surpris : lutilisateur
voit une série dobjets sallumer les uns après
les autres sur un écran, et lorsque celui quil
souhaite manipuler est mis en surbrillance, une onde P300 est
automatiquement et inconsciemment produite, ce qui effectue
la sélection.
Voir
la vidéo

Objets
sur lesquels se focalise le robot...
|
|

qui apparaissent sur l'écran de l'utilisateur
|

Par l'utilisation des ondes de son cerveau (P300),
l'utilisateur désigne ("flashe") l'objet
à déplacer
|
Lun
des points importants de cette démonstration est que
nous utilisons un signal bruité pour contrôler
le robot", explique
Rajesh Rao. La technique
utilisée pour récupérer les signaux cérébraux
est non-invasive, mais cela implique que nous ne pouvons obtenir
ces signaux quindirectement, à laide de capteurs
situés à la surface de la tête, et non là
où ils sont générés, dans les profondeurs
du cerveau. La conséquence en est que lutilisateur
peut seulement utiliser des commandes de haut niveau, telles
quindiquer quel objet prendre ou vers quel endroit aller,
et le robot doit être assez autonome pour exécuter
la tâche.,
Autrement dit, lutilisateur est la "conscience"
de la machine et lui donne des ordres très généraux.
Et- c'est au robot dutiliser ses propres facultés
pour gérer les détails.
Les
suites qui seront données à ces premiers essais
doivent être plus innovantes encore, mais là, l'équipe
expérimentera des techniques permettant de recueillir
des ondes cérébrales provenant de couches corticales
profondes, techniques donc invasives. Par ailleurs, elle utilisera
un robot adaptatif capable d'apprendre par essais et erreurs.
Ce sera la première fois au monde que la conjonction
entre ces deux techniques sera expérimentée.
L'objectif
d'une telle recherche(12),
tel qu'il est annoncé, vise les besoins civils : par
exemple aider des handicapés à commander les mouvements
d'un robot humanoïde accomplissant des tâches domestiques.
Mais on devine que d'autres tâches, spatiales ou militaires,
avec d'autres types de robots, opérant le cas échéant
à grande distance du pilote, seront réalisables.
*
* *
Comme
on le voit, il n'est pratiquement pas un domaine où les
BCI non invasifs apportent régulièrement nouveauté
et progrès. Si les laboratoires travaillant sur le domaine
étaient peu nombreux il y encore moins de 10 ans, on
en dénombre aujourd'hui plus d'une centaine à
travers le monde.
Et même si ces systèmes ne constituent pas encore
la panacée, on ne peut qu'en constater les avancées,
qu'il s'agisse d'une meilleure portabilité, du développement
de nouveaux censeurs permettant de mieux discriminer le signal,
de la diminution du temps de maîtrise de l'outil grâce
à des logiciels toujours plus sophistiqués, certains
pouvant même s'adapter au profil de l'utilisateur - ce
qui n'est pas une mince affaire, lorsqu'on sait que chaque utilisateur
présente une signature électrique différente.
Nous
n'en sommes encore qu'aux débuts, mais l'évolution
vers cette symbiose entre l'homme et la machine semble désormais
irréversible, porteuse d'autant d'espoirs que de dangers.
Car si cette symbiose peut améliorer la qualité
de vie des handicapés(13)
ou des personnes dépendantes, amener aussi des facultés
étendues aux biens portants, elle pourrait aussi être
employée à de tout autres desseins.
A quand la conception de drones armés commandés
par la pensée ?
(1) Voir
notre actualité du 15/11/2006, ainsi que le communiqué
de presse d'Hitachi : http://www.hitachi.com/New/cnews/030909.html
Cette technique ne nécessite pas la pose invasive d'électrodes
dans le cerveau. Les senseurs sont ici disposés dans un
casque mis simplement en contact avec le cuir chevelu. Rappelons
qu'il existe 3 approches en matière d'interface cerveau/marchine
(Brain Computer Interface (BCI)) : méthode invasive ; méthode
semi-invasive (Electrocorticographie, ou ECoG) : l'électrode
est placée dans le crâne (dure mère) mais
reste au dessus du cerveau sans pénétrer dans la
matière grise ; méthode non invasive (Electroencephalographie,
ou EEG - détection des ondes mu et beta, P300...).
(2)
Poursuivant ainsi des travaux de chercheurs japonais qui ont inventé
en 2001 le "Kokoro-gatari" ("parler avec le coeur")
qui permet aux personnes atteintes de paralysie musculaire totale
de dire "oui" ou "non", en mesurant les flux
de sang dans leur cerveau. Cet appareil a été développé
conjointement par Hitachi, lentreprise Excel du groupe Mechatronix
et lAssociation japonaise des malades de la sclérose
latérale amyotrophique.
(3)
Il est notamment très difficile de prévenir l'inflammation
provoquée par la présence d'électrodes dans
le tissu cérébral. Cela dit, le problème
est de savoir jusqu'où peuvent aller les techniques non
invasives par rapport à celles nécessitant le recours
aux implants profonds [voir aussi notre article "Faut-il
vraiment refusers
implants cérébraux profonds ?" du 2 avril
2004]. Les chercheurs du New York State Department Of
leHealth montraient par exemple dès 2004 qu'il était
possible de manier très simplement un curseur selon 2 directions
à partir de méthode non
invasive, avec la même précision et vitesse que les
résultats qui avaient été obtenus précédemment
sur des singes par méthode invasive. Les utilisateurs ont
ici appris à contrôler l'amplitude des ondes mu (8-12
Hz) et beta (13-28 Hz), selon différents endroits de contacts
des électrodes avec leur cuir chevelu, en employant différentes
stratégies mentales. L'utilisation d'un algorithme adapté
a permis de trouver la meilleure combinaison pour générer
deux signaux indépendants, correspondant aux mouvements
du curseur sur deux axes. [cf:"Control of a Two-dimensional
Movement Signal by a Noninvasive Brain-Computer Interface in Humans,
par Jonathan R. Wolpaw et Dennis J. McFarland " Proceedings
of the National Academy Of Sciences, December 6, 2004 ].
(4) Dispositif à la fois logiciel
et matériel.
(5) Voir http://www.holonet.khm.de/Holographers/Nakamura_Ikuo/text/neuro.html
(6) Voir
notre actualité du 6 mars 2001
Pour Pribram, la mémoire ne serait pas stockée dans
les cellules à des endroits précis du cerveau, mais
contenue dans les motifs d'interférences des ondes qu'il
émet. Cette
idée lui est apparue au milieu des années 1960 après
avoir lu un article décrivant le premier hologramme (mis
au point par Denis Gabor), dans la revue "Scientific American".
Cet hologramme était obtenu en divisant un unique rayon
de lumière pure (un laser) en deux faisceaux distincts
: le premier rebondissant sur l'objet à reproduire ; le
second, acheminé par un jeu de miroir, entrant en collision
avec les ondes lumineuses diffractées du premier. II en
résulte un système de franges d'interférences
qui va s'enregistrer sur une émulsion photosensible. Mais,
à la différence de ce qui se produit en photographie,
l'ensemble des informations sont enregistrées sur chaque
fragment du support. Ainsi, même si l'on brise une plaque
holographique en mille morceaux, chaque fragment pourra être
utilisé pour reconstituer l'image entière. Pribram
vit là une métaphore du mode de répartition
des souvenirs dans le cerveau qui abrite, dans chacune de ses
parties, de quoi reconstruire un souvenir dans son intégralité.
Pour Pribram, le cerveau serait un hologramme, capable d'emmagasiner
d'énormes quantités d'informations dans un espace
très restreint, de même qu'un seul cm3
de film holographique peut contenir jusqu'à dix milliards
de bits d'informations.
Voir http://en.wikipedia.org/wiki/Holonomic_brain_theory
et http://en.wikipedia.org/wiki/Karl_H._Pribram
et http://www.chaouqi.net/index.php?2005/04/17/13-karl-pribram-et-le-cerveau-holographique
(7) Voir http://www.gtec.at/products/g.MOBIlab/gMOBIlab.htm
(8)
Des appareillages de
cette société sont par exemple utilisés en
France par G. Renault Technocentre (Guyancourt), l'Université
de Lille, l'Hôpital de la Pitié Salpetrière
(Paris), l'ESPCI - Laboratoire ondes et acoustique (Paris), les
Applications Electroniques de Champagne (Troyes)...
(9)
Il faut 20 minutes à l'utilisateur (nécessitant
un entraînement de l'ordre de 150 essais de déplacement
de curseur dans sa tête) pour maîtriser le système.
(10)
Voir
notre actualité du 21/12/2006.
(11) Voir http://neural.cs.washington.edu/
(12)
Recherche financée par la Packard Foundation, l'Office
of Naval Research and la National Science Foundation.
(13)
On parle d'ores et déjà de nombreux systèmes,
comme par exemple la réalisation de prothèses neurales
ou d'une chaise roulante commandée par la pensée
(prototype en cours de développement au laboratoire BrainLab
de l'université de Georgie http://www.cis.gsu.edu/brainlab/ProjectsAwareChair.htm).
Retour au sommaire
|