Vers le site Automates Intelilgents
La Revue mensuelle n° 77
Robotique, vie artificielle, réalité virtuelle

Information, réflexion, discussion
logo admiroutes

Tous les numéros


Archives
(classement par rubriques)

Image animée
 Dans La Revue
 

Retour au sommaire

DU CÔT DES LABOS
article en cours d'écriture

Automates Intelligents s'enrichit du logiciel Alexandria.
Double-cliquez sur chaque mot de cette page et s'afficheront alors définitions, synonymes et expressions constituées de ce mot. Une fenêtre déroulante permet aussi d'accéder à la définition du mot dans une autre langue (22 langues sont disponibles, dont le Japonais).

Les Interfaces Cerveau/ordinateur non invasifs ont le vent en poupe
Christophe Jacquemin 02/02/07

photos : HitachiLa firme japonaise Hitachi a annoncé avoir créé et testé une nouvelle interface non invasive(1) qui permet à celui qui la porte d'agir par la pensée sur un commutateur de puissance marche-arrêt. Les expériences, qui consistaient à actionner le commutateur de puissance d'un train modèle réduit, s'appuient sur la topographie optique, technique de neuro-imagerie qui emploie la lumière proche de l'infrarouge pour tracer la concentration de l'hémoglobine du sang dans le cerveau(2). Identifiant ses variations d'écoulement en fonction de l'activité cérébrale, le système traduit ces changements en signaux de tensions pour commander des dispositifs externes.

Rien de trop révolutionnaire ici car il s'agissait juste pour l'instant d'actionner un commutateur on/off d'un train électrique. Mais les chercheurs espèrent affiner rapidement les potentialités du système. Car selon eux, une meilleure connaissance des variations de concentration du sang en fonction des diverses activités du cerveau devrait rapidement mener à la commande d'opérations mécaniques plus complexes. A court terme, on peut penser à l'utilisation de l'interface dans le domaine de la réadaptation cognitive. Sont aussi évoquées à plus long terme des applications permettant aux paralysées de recouvrir une certaine indépendance par l'action directe de systèmes par la pensée, et la possibilité d'effectuer des actions basiques. Hitachi espère commercialiser son système d'ici 5 ans.


Rappelons que le secteur des interfaces Cerveau/ordinateur (Brain Computer Interface [BCI]) a le vent en poupe et que nombreux sont aujourd'hui les laboratoires et compagnies travaillant sur les interfaces non invasives. Jusqu'où ces dernières permettront-elles d'aller ? Constitueront-elles la panacée face aux techniques invasives qui rappelons-le, nécessitent la pose d'électrodes dans le cerveau, avec tous les risques de rejets correspondants(3).
Dans le cas des techniques non invasives, le problème d'une mauvaise résolution du signal à cause de son atténuation par les tissus et os crâniens a souvent été souligné. La forme ronde du crâne vient également entraîner une dispersion et un brouillage des ondes électromagnétiques créées par les neurones. Ainsi, même si les ondes peuvent tout de même être détectées, il est plus difficile ici - par rapport aux méthode invasives ou semi-invasives - de déterminer le secteur du cerveau qui les a créées ou les actions générées par différents neurones. Par ailleurs, la méthode non invasive nécessite un entraînement intensif du sujet à la maîtrise de cette technologie.

La laocalisation de la source ouvre une nouvelle façon de voir l'activité corticale reliée aux états mentaux. L'image montre la localisation d'une source dipolaire pendant une expérience de mémorisation - Travaux menés à l'Université John HopkinsQuoi qu'il en soit, les progrès sont là, avec notamment la conception d'algorithmes toujours plus sophistiqués dans la localisation de la source, l'acquisition des données et leur mise en relation, conduisant à l'étude d'une plus large bande de fréquences et à une meilleure fiabilité dans les résultats (exactitude du signal de commande).

Contrôle d'pppareils par la pensée  © IBVADès lors, les casques non invasifs ne cessent de laisser envisager les applications les plus diversifiées, qu'il s'agisse d'apporter une aide aux personnes handicapées ou d'"augmenter" les possibilités de tout un chacun grâce à un interfaçage homme/machine plus direct. Il y a déjà sept ans, nous signalions dans ces colonnes la commercialisation par la société IBVA [Interactive Brain Wave Visual Analizer)] de son système, permettant de contrôler Contrôle d'un joystick par la pensée © IBVAdifférents appareils par la pensée. La méthode ici ne s'appuie pas sur le traçage de l'hémoglobine mais sur l'analyse des ondes cérébrales et leur transformation en signal numérique, données pouvant par exemple être converties en son, voire en musique au format MIDI, ou en tout autre format d'entrée destiné à des logiciels ou des appareils externes (lecteurs CD, caméscopes...).
GrâcJeux vidéo : soulever une pierre par la pensée © IBVAe à ce dispositif(4) et à la suite des recherches poursuivies par IBVA, il est désormais possible d'envoyer des messages par internet en contrôlant la machine par ses ondes cérébrales... Les musiciens peuvent effectuer directement le mixage de leurs arrangements musicaux par la pensée. Les accros des jeux vidéos expérimentent le déclenchement d'actions simplement en y pensant (contrôler un joystick, soulever et aligner des pierres par la pensée). Ceci nécessite bien sûr un entraînement de la part du porteur du casque pour générer le signal adéquat, correspondant aux actions désirées.


 


BCI et art

Signalons aussi l'utilisation de ces possibilités dans le domaine artistique. S'appuyant sur le système de la société IBVA, le Japonais Ikuo Nakamura présentait ses "neuros hologrammes"(5) lors de l'exposition Holographic Network tenue à Berlin en 1996. Représentées sous forme d'un hologramme (voir images à droite), les ondes cérébrales de son cerveau étaient analysées et traitées en temps réel sur ordinateur, commandant un système de multi-éclairage illuminant l'hologramme. Une manière, selon l'artiste, de visualiser l'inconscient à l'oeuvre ? Ou tout du moins d'illustrer de façon métaphorique "The Holonomic Brain Theory" (mémoire holographique) émise par le neurophysiologiste américain d'origine austro-tchèque Karl Pribram(6).

     
 







Des systèmes portables...

Nombreuses sont les entreprises produisant aujourd'hui des appareillages non invasifs. Signalons par exemple la société autrichienne g.tec Guger Technologies qui propose notamment le "g.MOBIlab"(7), ordinateur de poche contrôlé par la pensée présenté en 2005 par le Dr Christopher Guger au Salon CeBIT de Hanovre.
L’appareil est livré avec des électrodes, des capteurs de contacts crâniens, un écran et des logiciels d’application. Le patient s’entraîne, par l’exercice de la maîtrise de la pensée, à mettre le curseur de l’écran à droite, puis à gauche. Une fois acquise la maîtrise de l’appareil, les entrées sorties du BCI Pocket peuvent être branchées pour effectuer d’autres télécommandes. L'idée est aussi ici de pouvoir fournir aux scientifiques un appareillage(8) vraiment portable et mobile permettant d'acquérir les biosignaux (qu'ils s'agissent de ceux venant du cerveau, des muscles, de la peau...). Il peut ainsi été utilisé pour toutes sortes de recherches concernant le vivant placé dans des conditions extrêmes : simulateur de vol, chambres de pression, accélération dans les véhicules, haute montagne (a été utilisé pour étudier les effets de l'altitude sur les électroencéphalogrammes et électrocardiogramme des alpinistes lors d'une expédition en Himalaya)...

 


BCI et réalité virtuelle
ou comment se promener par la pensée dans une ville imaginaire

Combiner un Brain Controler Interface (BCI) non invasif avec les technologies de réalité virtuelle offre la possibilité de réaliser une interface «naturelle» pour se déplacer par la pensée (juste en imaginant des mouvements) - et en temps réel - dans un environnement virtuel. Dans ce cadre, une étape très importante a été présentée en 2004* par un groupe de scientifique travaillant avec la société autrichienne Sg.tec Guger Technologies.
Le BCI transforme les signaux bioélectriques du cerveau, modulés par l'activité mentale (par exemple imaginer le mouvement de son pied ou de sa main) en un signal de commande. Il a été montré que ce signal pouvait être utilisé pour avancer, rester immobile ou reculer dans un environnement virtuel se composant d'une rue située dans une ville imaginaire.
Pour mener à bien l'expérience, il a d'abord fallu identifier les signaux générés dans le cerveau, puis entraîner l'utilisateur à générer en temps réel les "bons" états mentaux.

Le participant, assis sur un siège et la tête recouverte d'un casque (EEG) et de lunettes spéciales est placé dans un environnement virtuel immersif de type "CAVE", lui donnant l'illusion d'être physiquement dans une rue (peuplée ici de 16 avatars et de boutiques de chaque côté).
Ayant été entraîné préalablement à maîtriser les "bons" signaux de son cerveau, il lui suffit d'imaginer mentalement le mouvement de ses pieds, pour progresser en avant ou en arrière dans cet environnement, et le mouvement de sa main droite pour arrêter la progression.
Voir la video

*R.Leeb, C. Keinrath, C. Guger, R. Scherer, D. Friedman, M. Slater, M. et G. Pfurtscheller : "Using a BCI as a navigation tool in virtual environments" publié dans les Proceedgins of the 2nd International Brain-Computer Interface Workshop and Training Course, pp.49-50, Septembre 2004.

 

Vers la machine à écrire mentale ?

Sera t-il possible dans un futur proche de pouvoir écrire directement à toute vitesse un texte sur ordinateur simplement en pensant aux mots que l'on voudrait voir s'afficher ? Pour l'instant, on en est encore loin : les systèmes ne permettent ici que de contrôler la position d'un curseur sur écran, et donc de passer par des artifices logiciels pour choisir chaque lettre, ce qui demande à la fois un entraînement pour pouvoir contrôler le curseur, mais aussi un temps assez long pour écrire les mots. Ma "machine à écrire mentale"En tous cas, ces systèmes peuvent s'avérer d'un grand secours pour les personnes totalement handicapées, mais dont le cerveau est intact.
C'est dans ce cadre que des
chercheurs de l’Institut Fraunhofer de Berlin et de la clinique neurologique de l'hôpital berlinois de la Charité présentaient en mars dernier leur "machine à écrire mentale" au salon CeBIT 2006 de Hanovre.
Placés sur la tête, les 128 senseurs du casque (un autre prototype en contient 64) enregistrent les signaux cérébraux envoyés par le cortex moteur primaire. Ceux-ci sont envoyés par câble à l'ordinateur, analysés et filtrés grâce à un logiciel innovant, puis transformés en commande. Pour guider le curseur, "il faut s'imaginer prendre une balle dans la main droite ou la main gauche, penser que l'on bouge une porte avec un pied ou que l'on tire un but" expliquent les professeurs Klaus-Robert Müller et Gabriel Curio. "Chaque mouvement imaginé commande un déplacement du curseur sur l'écran, permettant par élimination de choisir des lettres, et d'écrire". Fruit de cinq ans de travail, ce prototype - et selon ses concepteurs - ne requiert pas un grand entraînement
(9), grâce au logiciel auto-apprenant développé par les chercheurs de l'Institut Fraunhofer. "L'ordinateur s'adapte à chaque personne, il faut seulement compter quinze à vingt minutes pour configurer un profil individuel" indique Gabriel Curio. Ensuite l'essentiel est de se détendre et de se concentrer sur un mouvement précis. Lors des derniers tests, le patient est arrivé à émettre jusqu'à 50 choix de lettre par minute, contre 5 à 10 au début du projet. Cinq à sept mots peuvent être écrits à la minute. "Si d'autres personnes ont développé avant nous l'interface cerveau-ordinateur, nous avons changé de paradigme : c'est l'ordinateur qui s'adapte à la manière de réfléchir du patient. Cela fait gagner temps et souplesse".

Il faut toutefois noter ici le problème du temps d'installation (près d'une heure) du bonnet car chaque électrode doit toucher le cuir chevelu à un endroit précis. Mais les chercheurs travaillent maintenant à la portabilité du système et au développement d'une nouvelle technologie d'électrodes qui permettrait de développer un électroencéphalogramme à partir du port d'un simple bonnet.
L'équipe imagine également d'autres applications : permettre à une personne paralysée de diriger sa chaise roulante par la pensée, actionner directement une prothèse (à partir de la reconnaissance de la pensée associée au mouvement désiré du membre), écrire ou jouer sur ordinateur. Les chercheurs travaillent également avec l'industrie automobile, imaginant que si un conducteur portait une casquette remplie d'électrodes, reliées sans fil à un ordinateur de bord, celui-ci pourrait analyser son état de fatigue et de concentration et émettre à son intention des données adaptées, en vue de rendre la conduite du véhicule plus sûre.

 


Une technique alternative pour "parler par la pensée" ?

Chuck Jurgensen - Photo  photo to NASA Ames Research Center,Une autre technique pourrait s'avérer intéressante dans le domaine de l'énonciation directe des mots par la pensée. Bien qu'il ne s'agisse pas ici de Brain Controller Interface (BCI) proprement dit [puisqu'ici est récupéré un électromyogramme (EMG) analysant l'activité électrique des muscles], elle mérite d'être signalée dans cet article. L'équipe de Chuck Jorgensen, chercheur à la NASA au Ames Research Center (Californie), a ainsi fait breveter un système dans lequel de petits capteurs placés sous le menton et de chaque côté de la pomme d'Adam permettent de recueillir des signaux nerveux analysés par un logiciel qui les convertit en mots [notre actualité du 04 mai 2004]. "Une personne utilisant ce système subvocal ["subvocal speech"] pense des phrases et les prononce pour elle-même, si doucement que les mots sont inaudibles, mais la langue et les cordes vocales reçoivent les signaux de parole émanant du cerveau", explique le chercheur. Le travail, issu d'un programme commencé en 1999*, s'est tout d'abord focalisé sur la reconnaissance de six mots (stop, go, gauche, droite, alpha, oméga) et de dix chiffres (de 0 à 9) que les chercheurs répétaient subvocalement (nb : aujourd'hui le système permet de reconnaître 25 mots et 38 voyelles et consonnes). Cette reconnaissance des mots s'est avérée précise à 92% (certains à 99%)**. Les chercheurs ont aussi donné à chaque lettre de l'alphabet des coordonnées sur une grille, permettant d'identifier chaque lettre par une paire de chiffres. Devant un ordinateur, ils ont aussi vérifié la possibilité de lancer silencieusement une requête sur un moteur de recherche, simplement en épelant en silence le mot "NASA". "Nous avons numéroté électroniquement les pages de résultats de la requête et nous avons utilisé ces numéros, une nouvelle fois (sans parler à voix haute) pour choisir les pages web à consulter. Cela a permis de prouver que nous pouvons consulter internet sans toucher un clavier". ***

Essai des subvocal speech, à travers une combinaison avec système de respirationL'équipe se focalise aujourd'hui sur le développement de nouveaux senseurs plus performants, sans fils.

Un tel système -s'il pouvait être rendu portable - pourrait aussi être utilisé par des personnes voLe subvocal speech - Phtoto : NASAulant parler au téléphone sans être entendues, par des gardes du corps ou des militaires pour communiquer discrètement entre eux. Il pourrait aussi être aussi utile aux astronautes comme toute personne portant une combinaison avec système de respiration, ou travaillant dans un environnement bruyant (conducteurs de tank, par exemple), les handicapés ou même être utilisé dans les logiciels actuels de reconnaissance vocale, pour en améliorer la précision.

Voir la video

* Il s'agit du programme "Subvocal" de la NASA, faisant partie du programme "Extension of the Human Senses". L'agence militaire américaine DARPA (The Defense Advanced Research Projects Agency) s'intéresse de très près à ces travaux.
**B.J. Betts and C. Jorgensen, "Small Vocabulary Recognition Using Surface Electromyography in an Acoustically Harsh Environment," tech. memo TM-2005-213471, NASA, 2005 (consulter l'article).
***C. Jorgensen and K. Binsted, "Web Browser Control Using EMG Based Sub Vocal Speech Recognition," Proceedings of the 38th Hawaii International Conference on System Sciences (HICSS'05), pp. 294c, 2005

 

Commander des robots par la pensée ...

Dans le cadre d'un programme de recherche financé par la DARPA, les chercheurs de l'université John Hopkins ont déjà montré qu'il était possible de contrôler par la pensée les mouvements simples d'une main robotisée, sans avoir recours aux techniques invasives..

Bob Rasmussen, agissant par la pensée sur un main robotisée   Bob Rasmussen, agissant par la pensée sur un main robotisée
Bob Ramussen, agissant par la pensée sur une main robotisée
Voir la vidéo

Main robotiséePlus récemment, c'est au tour de l'Institut japonais international de recherches avancées en télécommunications (ATR) et du laboratoire de recherche de Honda (HRI) d'annoncer le contrôle d'une main robotisée, avec la réalisation de leur "Brain machine interface". La technique s'appuie ici sur la représentation de l'activité du cerveau (réponses hémodynamfMRIiques) à partir de l'imagerie par résonance magnétique fonctionnelle (fMRI). Si la technologie d'acquisition des données mise en jeu est assez lourde (mais non-invasive) [voir notre article du 26 mai 2006], elle est potentiellement applicable à d'autres types de mesures de l'activité cérébrale telle que celle des champs magnétiques et électriques générés, les type d'ondes.... Si il ne s'agit pas ici du port d'un casque, les chercheurs travaillent cependant à la réalisation de systèmes bien plus compacts, qui pourraient devenir portables.

Photo : Neural Systems LabPour leur part, les chercheurs de l'Université de Washington (Neural Systems Lab) ont annoncé en décembre 2006(10) le contrôle par la pensée des mouvements d'un robot humanoïde, travaux présentés par l'équipe du Dr Rajesh Rao, du Neural Systems Group(11) lors du Brain-Computer Interfacing Meeting tenu à Whistler, B.C.
L'humain qui pilote le robot porte un casque non invasif équipé de 32 électrodes qui recueillent par électroencéphalographie des ondes émises par le cerveau. L'expérimentateur regarde le robot agir à partir de deux caméras branchées sur l'écran de son ordinateur. L'une est montée sur le robot et l'autre au-dessus de lui. L'expérimentateur doit alors se concentrer mentalement sur des
Photo : Neural Systems Labordres simples, tels qu'avancer, reculer, déplacer un objet pour que l'humanoïde s'exécute. En plus de l’EEG traditionnel, le système utilise l’onde P300 de l'expérimentateur, onde qui se manifeste dans le cerveau lorsque nous sommes surpris : l’utilisateur voit une série d’objets s’allumer les uns après les autres sur un écran, et lorsque celui qu’il souhaite manipuler est mis en surbrillance, une onde P300 est automatiquement et inconsciemment produite, ce qui effectue la sélection.
Voir la vidéo

Photo : Neural Systems Lab
Objets sur lesquels se focalise le robot...
 
Photo : Neural Systems Lab
qui apparaissent sur l'écran de l'utilisateur
Schéma : Neural Systems Lab
Par l'utilisation des ondes de son cerveau (P300),
l'utilisateur désigne ("flashe") l'objet à déplacer


Rajesh Rao“L’un des points importants de cette démonstration est que nous utilisons un signal “bruité” pour contrôler le robot", explique Rajesh Rao. La technique utilisée pour récupérer les signaux cérébraux est non-invasive, mais cela implique que nous ne pouvons obtenir ces signaux qu’indirectement, à l’aide de capteurs situés à la surface de la tête, et non là où ils sont générés, dans les profondeurs du cerveau. La conséquence en est que l’utilisateur peut seulement utiliser des commandes de haut niveau, telles qu’indiquer quel objet prendre ou vers quel endroit aller, et le robot doit être assez autonome pour exécuter la tâche.”,
Autrement dit, l’utilisateur est la "conscience" de la machine et lui donne des ordres très généraux. Et- c'est au robot d’utiliser ses propres facultés pour gérer les détails.

Les suites qui seront données à ces premiers essais doivent être plus innovantes encore, mais là, l'équipe expérimentera des techniques permettant de recueillir des ondes cérébrales provenant de couches corticales profondes, techniques donc invasives. Par ailleurs, elle utilisera un robot adaptatif capable d'apprendre par essais et erreurs. Ce sera la première fois au monde que la conjonction entre ces deux techniques sera expérimentée.

L'objectif d'une telle recherche(12), tel qu'il est annoncé, vise les besoins civils : par exemple aider des handicapés à commander les mouvements d'un robot humanoïde accomplissant des tâches domestiques. Mais on devine que d'autres tâches, spatiales ou militaires, avec d'autres types de robots, opérant le cas échéant à grande distance du pilote, seront réalisables.

* * *

Ptototype de chaise roulante, commandée par la pensée - Photo : BrainlabComme on le voit, il n'est pratiquement pas un domaine où les BCI non invasifs apportent régulièrement nouveauté et progrès. Si les laboratoires travaillant sur le domaine étaient peu nombreux il y encore moins de 10 ans, on en dénombre aujourd'hui plus d'une centaine à travers le monde.
Et même si ces systèmes ne constituent pas encore la panacée, on ne peut qu'en constater les avancées, qu'il s'agisse d'une meilleure portabilité, du développement de nouveaux censeurs permettant de mieux discriminer le signal, de la diminution du temps de maîtrise de l'outil grâce à des logiciels toujours plus sophistiqués, certains pouvant même s'adapter au profil de l'utilisateur - ce qui n'est pas une mince affaire, lorsqu'on sait que chaque
utilisateur présente une signature électrique différente.
Nous n'en sommes encore qu'aux débuts, mais l'évolution vers cette symbiose entre l'homme et la machine semble désormais irréversible, porteuse d'autant d'espoirs que de dangers. Car si cette symbiose peut améliorer la qualité de vie des handicapés(13) ou des personnes dépendantes, amener aussi des facultés étendues aux biens portants, elle pourrait aussi être employée à de tout autres desseins.
A quand la conception de drones armés commandés par la pensée ?


(1) Voir notre actualité du 15/11/2006, ainsi que le communiqué de presse d'Hitachi : http://www.hitachi.com/New/cnews/030909.html
Cette technique ne nécessite pas la pose invasive d'électrodes dans le cerveau. Les senseurs sont ici disposés dans un casque mis simplement en contact avec le cuir chevelu. Rappelons qu'il existe 3 approches en matière d'interface cerveau/marchine (Brain Computer Interface (BCI)) : méthode invasive ; méthode semi-invasive (Electrocorticographie, ou ECoG) : l'électrode est placée dans le crâne (dure mère) mais reste au dessus du cerveau sans pénétrer dans la matière grise ; méthode non invasive (Electroencephalographie, ou EEG - détection des ondes mu et beta, P300...).
(2) Poursuivant ainsi des travaux de chercheurs japonais qui ont inventé en 2001 le "Kokoro-gatari" ("parler avec le coeur") qui permet aux personnes atteintes de paralysie musculaire totale de dire "oui" ou "non", en mesurant les flux de sang dans leur cerveau. Cet appareil a été développé conjointement par Hitachi, l’entreprise Excel du groupe Mechatronix et l’Association japonaise des malades de la sclérose latérale amyotrophique.

(3) Il est notamment très difficile de prévenir l'inflammation provoquée par la présence d'électrodes dans le tissu cérébral. Cela dit, le problème est de savoir jusqu'où peuvent aller les techniques non invasives par rapport à celles nécessitant le recours aux implants profonds [voir aussi notre article "Faut-il vraiment refusers implants cérébraux profonds ?" du 2 avril 2004]. Les chercheurs du New York State Department Of leHealth montraient par exemple dès 2004 qu'il était possible de manier très simplement un curseur selon 2 directions à partir de méthode nonCarte du cuir chevelu et  équations de commande du signal correspondant pour le contrôle d'un curseur 2D. invasive, avec la même précision et vitesse que les résultats qui avaient été obtenus précédemment sur des singes par méthode invasive. Les utilisateurs ont ici appris à contrôler l'amplitude des ondes mu (8-12 Hz) et beta (13-28 Hz), selon différents endroits de contacts des électrodes avec leur cuir chevelu, en employant différentes stratégies mentales. L'utilisation d'un algorithme adapté a permis de trouver la meilleure combinaison pour générer deux signaux indépendants, correspondant aux mouvements du curseur sur deux axes. [cf:"Control of a Two-dimensional Movement Signal by a Noninvasive Brain-Computer Interface in Humans, par Jonathan R. Wolpaw et Dennis J. McFarland " Proceedings of the National Academy Of Sciences, December 6, 2004 ].
(4) Dispositif à la fois logiciel et matériel.
(5) Voir
http://www.holonet.khm.de/Holographers/Nakamura_Ikuo/text/neuro.html
(6) Voir notre actualité du 6 mars 2001
Pour Pribram, la mémoire ne serait pas stockée dans les cellules à des endroits précis du cerveau, mais contenue dans les motifs d'interférences des ondes qu'il émet.
Cette idée lui est apparue au milieu des années 1960 après avoir lu un article décrivant le premier hologramme (mis au point par Denis Gabor), dans la revue "Scientific American". Cet hologramme était obtenu en divisant un unique rayon de lumière pure (un laser) en deux faisceaux distincts : le premier rebondissant sur l'objet à reproduire ; le second, acheminé par un jeu de miroir, entrant en collision avec les ondes lumineuses diffractées du premier. II en résulte un système de franges d'interférences qui va s'enregistrer sur une émulsion photosensible. Mais, à la différence de ce qui se produit en photographie, l'ensemble des informations sont enregistrées sur chaque fragment du support. Ainsi, même si l'on brise une plaque holographique en mille morceaux, chaque fragment pourra être utilisé pour reconstituer l'image entière. Pribram vit là une métaphore du mode de répartition des souvenirs dans le cerveau qui abrite, dans chacune de ses parties, de quoi reconstruire un souvenir dans son intégralité. Pour Pribram, le cerveau serait un hologramme, capable d'emmagasiner d'énormes quantités d'informations dans un espace très restreint, de même qu'un seul cm3 de film holographique peut contenir jusqu'à dix milliards de bits d'informations.
Voir http://en.wikipedia.org/wiki/Holonomic_brain_theory et http://en.wikipedia.org/wiki/Karl_H._Pribram et http://www.chaouqi.net/index.php?2005/04/17/13-karl-pribram-et-le-cerveau-holographique
(7) Voir http://www.gtec.at/products/g.MOBIlab/gMOBIlab.htm
(8) Des appareillages de cette société sont par exemple utilisés en France par G. Renault Technocentre (Guyancourt), l'Université de Lille, l'Hôpital de la Pitié Salpetrière (Paris), l'ESPCI - Laboratoire ondes et acoustique (Paris), les Applications Electroniques de Champagne (Troyes)...
(9) Il faut 20 minutes à l'utilisateur (nécessitant un entraînement de l'ordre de 150 essais de déplacement de curseur dans sa tête) pour maîtriser le système.
(10) Voir notre actualité du 21/12/2006.
(11) Voir
http://neural.cs.washington.edu/
(12) Recherche financée par la Packard Foundation, l'Office of Naval Research and la National Science Foundation.
(13) On parle d'ores et déjà de nombreux systèmes, comme par exemple la réalisation de prothèses neurales ou d'une chaise roulante commandée par la pensée (prototype en cours de développement au laboratoire BrainLab de l'université de Georgie http://www.cis.gsu.edu/brainlab/ProjectsAwareChair.htm).



Retour au sommaire