Actualité scientifique

novembre 1999

accueil actu-science 1999
Par Christophe Jacquemin

Rapport Théry : autoriser, sous conditions, la recherche sur l'embryon et interdire le clonage reproductif
Bioéthique
Mardi 30 novembre 1999

Jean-François Théry, président de la section du rapport et des études du Conseil d'Etat a remis le 29 novembre à Lionel Jospin le rapport "Les lois de bioéthique, cinq ans après" fixant le cadre et le contenu du prochain réexamen par le Parlement des lois de bioéthique. Demandé le 22 avril par le premier ministre, ce document de 124 page a été rédigé par un groupe composé de membres du Conseil d'Etat et de représentants des ministères concernés (Santé, Recherche, Justice), après audition de nombreuses personnalités du monde scientifique et médical ainsi que des représentants des courants philosophique ou religieux (dont les rapports d'audition figurent en annexe).
Assorti de propositions ou de modifications de la loi de 1994 sur la bioéthique, ce rapport comprend quatre parties :

  • Le clonage, la recherche sur l'embryon et l'assistance médicale à la procréation
  • Le don et l'utilisation du corps humain
  • La médecine prédictive
  • La brevelabilité du corps humain et de ses éléments

Principales propositions :
- Autorisation, sous conditions, de la recherche sur l'embryon :
Les auteurs du rapport prennent en compte les nouvelles perspectives thérapeutiques ouvertes par la possibilité de cultiver certaines lignées des cellules qui constituent l'embryon. Il est nécessaire "d'autoriser, sous condition d'un strict encacadrement, les recherches scientifiques sur l'embryon in vitro". Ne pourraient être ici concernés que les embryons "orphelins", initialement conçus dans le cadre d'une assistance médicale à la procréation mais qui ne font plus l'objet d'un projet parental (le nombre de ces embryons est estimé entre 10 000 et 300 000).
- Interdiction du clonage reproductif :
Pour les auteurs du rapport, le réexamen des lois du 29 juillet 1994 "doit être l'occasion d'interdire explicitement le clonage reproductif chez l'homme".

En matière d'assistance médicale à la procréation :
Les auteurs suggèrent la création d'une Agence de la médecine de la reproduction, afin de renforcer l'organisation administrative et les conditions de fonctionnement de ce secteur, sujet à dérive dans les pratiques.
- En matière de greffe d'organes :
Les possibilités de don d'organe par des donneurs vivants sont élargies; les personnes "affectivement liées" au candidat à une greffe pourront être donneuses. Le prélèvement sur les personnes décédées est, quant-à-lui, unifié : les mêmes conditions de consentement sont requises, s'agissant du prélèvement en vue de greffe ou à finalité scientifique.
- En matière de médecine prédictive :
Clarification du texte sur l'identification génétique d'une personne dans le cadre d'une enquête judiciaire. Evoquant l'affaire "Yves Montand", le Conseil d'Etat propose de préciser la loi  : "l'opposition clairement manifestée de son vivant par une personne" (...) à une expertise de filiation (...) "fait obstacle à la mise en oeuvre de celle-ci après le décès de l'intéressé".
En matière de brevetabilité du corps humain :
Les auteurs proposent d'interpréter de manière restrictive la directive européenne sur la question.

Ce rapport marque une étape essentielle dans le processus de traduction dans la loi française des grands principe de bioéthique. Ainsi, les ministères concernés -santé, recherche et justice- vont pouvoir commencer à élaborer le projet de loi gouvernemental qui sera soumis au Parlement. Cette étape devrait prendre au moins six mois : les nouveaux textes bioéthiques arriverons vraisemblablement devant les députés vers la fin de l'an 2000. Sachant que la session d'automne est traditionnement très chargée (débats sur le budget, la Sécurité Sociale...), la loi, selon toute probabilité, ne sera définitivement votée qu'en 2001.

Un dictionnaire interactif des sciences et techniques sur la toile
Culture scientifique
Lundi 29 novembre 1999

Disponible en ligne gratuitement, le "Dictionnaire interactif des sciences et des techniques" propose quelque 5000 définitions, à destination de tout public. D'algorithme à relativité, en passant par adhérence et vapométallurgie, rien ne semble avoir été oublié. Un véritable outil interactif, chaque fiche renvoyant à de nombreux liens hypertextes. Ce dictionnaire réalisé avec le concours du CEA, est le résultat de près de trois ans de travail, faisant appel à des scientifiques et à des rédacteurs spécialisés. Objectif affiché : lutter contre l'absence de validation des contenus scientifiques sur l'internet, tout en rendant l'information accessible.

Cette réalisation constitue la vitrine du site Sciences en ligne http://www.sciences-en-ligne.com des éditions de l'analogie, créées en 1996 par Jérome Robert (petit-fils de Paul , fondateur du  "Robert").

5891,77 mètres : le Kilimandjaro a perdu de sa hauteur
Géographie physique - géodésie
Vendredi 26 novembre 1999

5291,77 mètres, soit 3 mètres de moins que ce l'on admettait jusqu'à présent : voici la hauteur du pic Uhuru, le sommet du Kilimandjaro. Cette donnée vient d'être obtenue  grâce à l'utilisation du système satellitaire GPS (Global Positioning System) par une équipe germano-tanzannienne composée de 21 chercheur.
Rappelons qu'en mai dernier, le système par satellite GPS avait également permis de découvrir que l'Everest, le plus haut sommet du monde, culminait à 8.850m, soit deux mètres de plus que les derniers calculs effectués 45 ans auparavant.

Le mont kilimandjaro
© photo : http://www.tanganyka.com


Pour ne pas mourir idiot : principe du positionnement GPS

Le principe du positionnement GPS est très proche du principe de triangularisation. On mesure la distance entre l'utilisateur et un certain nombre de satellites de positions connues. On définit ainsi des sphères centrées sur des satellites et dont l'intersection donne la position. Le récepteur GPS est capable d'identifier le satellite qu'il utilise à l'aide du signal pseudo aléatoire émis par chaque satellite. Il charge, à l'aide de ce signal, les informations sur l'orbite et la position du satellite. Pour mesurer la distance qui sépare le satellite du GPS, on mesure le temps T mis par le signal pour aller de l'un vers l'autre. Le signal voyageant à la vitesse de la lumière, la distance recherchée est donnée par : R = c.T
La mesure de T nécessite une manipulation :
Le satellite et le récepteur émettent tous deux au même instant (instant réglé sur l'horloge générale du système GPS) le code pseudo aléatoire (le récepteur en génère une réplique). Le récepteur retarde ensuite le début de cette émission jusqu'à ce que son signal se superpose avec celui provenant du satellite. La valeur de ce retard est ainsi le temps mis par le signal pour se propager du satellite jusqu'à l'utilisateur.


Schéma explicatif de la mesure du retard.

Ti correspond à la durée du trajet reliant le satellite au récepteur

L'utilisation de cette méthode avec trois satellites permet alors à l'utilisateur de déterminer ses distances R1, R2 et R3 par rapport à trois satellites de positions connues. Ainsi, si ( x, y, z )sont les coordonnées de l'utilisateur et ( xi, yi, zi) celles des satellites, on obtient le système de trois équations à trois inconnues ci-dessous dont la résolution aboutit aux coordonnées de l'utilisateur :

R12=(x-x1)2+(x-x2)2+(x-x3)2
R22=(y-y1)2+(y-y2)2+(y-y3)2
R32=(z-z1)2+(z-z2)2+(z-z3)2


D'après les scientifiques, cette diminution de trois mètres du sommet du Kilimandjaro peut s'expliquer par le réchauffement de la planète, qui a vu le niveau des océans s'élever, et par le tassement du sommet lui-même.

Effet de site : un forage dans l'agglomération de Grenoble pour mieux valider les modèles sismiques
Sismologie
Mercredi 24 novembre 1999

Des équipes du Laboratoire de géophysique interne et de technolophysique (LGIT/université Joseph Fourier de Grenoble) et de l'Institut de Protection et de Sûreté Nucléaire effectuent actuellement un forage de 500 mètres de profondeur en périphérie de l'agglomération grenobloise. L'objectif est de mesurer l'épaisseur de la couche de sédiments recouvrant la vallée, donnée indispensable pour affiner la modélisation en 3 dimensions (3D) des séismes dans la région. L'amélioration du modèle conduira à une meilleure prévision de l'amplitude et de la fréquence des ondes sismiques en chaque point de la vallée, ceci permettant d'en déduire, le cas échéant, de nouvelles règles parasismiques pour  la construction des bâtiments.
Rappelons que depuis cinq ans, les sismologues de la planète ont commencé à élaborer des modèles informatiques en 3D qui permettent de prévoir seconde par seconde la trajectoire des ondes sismiques, y compris lorsqu'elles rebondissent sur les montagnes (ce qui est le cas dans la cuvette de Grenoble). On sait aujourd'hui que des bassins sédimentaires enchassés dans des rochers peuvent se comporter comme de véritables caisses de résonance et amplifier considérablement les ondes sismiques, phénomène dénommé "effet de site". On en connaît quelques exemple: le tremblement de terre de Mexico de 1985 (où les dégâts ont été considérables à plus de 350 km de l'épicentre du fait même de l'amplification des ondes), celui d'Erevan  (Arménie) en 1988, de Kobé (Japon) en 1995 ou encore d'Izmit (Turquie) enregistré cette année.
"Le ministère de l'Aménagement du Territoire et de l'Environnement est en train d'adapter la réglementation parasismique aux affets de site (...). Mais entre les propositions scientifiques et l'adaptation à la réglementation, il peut s'écouler un délai de 5 ans". indique Pascal Douard, sous-directeur chargé des risques naturels à la Direction de la prévention des pollutions et des risques.

D'ores et déjà, des études de micro-zonage sismique sont réalisées afin de mieux prévoir les effets de secousses en fonction de la nature et de la composition des sous-sols dans les sites considérés. C'est ainsi le cas pour la ville de Grenoble, située sur un bassin sédimentaire creusé par des glaciers (encaissée entre trois massifs montagneux), consituant un échantillon particulièrement intéressant pour les chercheurs qui souhaitent mieux comprendre le phénomène et en tirer des leçons à l'usage des pouvoirs publics. On sait par exemple que le séisme de Laffrey du 11 janvier (ayant prix sa source à une vingtaine de kilomètres de Grenoble), bien que peu profond et d'une faible magnitude (3, 6), a pourtant provoqué de fortes vibrations, particulièrement dans le centre-ville. Les enregistrements obtenus sur le rocher (en bordure de la ville) et sur le bassin sédimentaire (au centre) ont parfaitement démontré que les mouvements du sol était fortement amplifiés par le bassin et avaient une durée plus longue que sur le rocher. " En certains point, l'effet de site peut même  amplifier 10 fois le séisme, ce qui correspond à deux degrés supplémentaires sur l'échelle de Richter", souligne notamment Pierre-Yves Bard, responsable au sein du LGIT des recherches en matière de risques géologiques (mécanismes et prévention).
Pour être fiables, les modèles numériques élaborés par les travaux du LGIT et de l'ISPN doivent se fonder sur des données très précises. Ceci nécessite de connaître à quelques mètres près la prodondeur de la couche sédimentaire dans chaque quartier de la ville ainsi que la composition de cette couche. Or le seul sondage effectué sur le site grenoblois date de 1943. Le forage actuel, qui devrait être terminé dans quelques semaines, viendra donc combler une lacune, permettant de préciser certaines indications géophysiques sur l'ensemble du site et de mieux connaître la configuration de la caisse de résonance.
Ceci devrait permettre d'autres simulations dans des sites analogues, comme les vallées alpines, ce qui éveille l'intérêt des scientifiques suisses et italiens, qui ont eux eux aussi entrepris d'étudier l'effet de site, respectivement dans le Valais et dans la vallée de Trento.

Une désaffection pour les filières scientifiques
Société-enseignement
Mardi 23 novembre 1999

Les étudiants boudent les filières scientifiques : un phénomène surtout notable au sein des universités, qui enregistrent une baisse régulière des inscriptions depuis près de cinq ans (tendance qui ne semble par contre pas trop affecter les écoles d'ingénieurs dont les effectifs restent stables).
Selon la direction de la programmation et du développement du ministère de l'Education nationale, de la Recherche et de la Technologie, l'ensemble "Sciences et structures de la matière" (SSM) et "Sciences de la nature et de la vie" (SNV) connaît, pour l'année universitaire 1998/1999 un recul de 7,1%, comparable à celui déjà enregistré l'année précédente (7,7%)*.
En quatre ans, les sciences et technologies ont vu leurs effectifs réduire de moitié (seulement un peu plus de 50000 inscrits à la rentrée 1998/1999), la désaffection touchant surtout les mathématiques, la physique et la chimie.

*Cette baisse profite toutefois à d'autres filières comme les Instituts Universitaires de Technologie (IUT), qui voient s'accroître le nombre de bâcheliers scientifiques : 14,1% de bâcheliers se sont orientés vers ces Instituts en 1998/99, contre 13,2% en 1997/1998.

Le problème est très préoccupant lorsqu'on sait que beaucoup de chercheurs partiront en  retraite ces prochaines années. Va t'on assister à une pénurie de chercheurs en France? Certaines universités ont enregistré des baisses d'effectif en 1er cycle de plus de 20%. Pour enrayer le phénomène, des programmes pilotes ont été mis en place dans six universités, en insistant sur le travail en groupe et le tutorat. En rénovant le Deug, en adaptant au mieux le programme, les universités espèrent ainsi attirer à nouveau les bâcheliers scientifiques. 

Prodiges et vertiges de l'analogie
Publiscopie
Samedi 20 novembre 1999

Jacques Bouveresse : "Prodiges et vertiges de l'analogie (Editions Raisons d'agir - diffusion Le Seuil, octobre 1999, 158 pages, 30 francs).

Je ne peux résister au plaisir de vous conseiller la lecture de ce petit livre (format  17x10,5 cm)  acheté tout à l'heure et dévoré en moins de deux heures, dont on peut d'ailleurs retrouver de larges passages sur le web:

http://www.ge-dip.etat-ge.ch/athena/bouveresse/bou_pens.html
http://www.peccatte.net/SBPresse/LeMondeEducJB.html

Comme le dit l'auteur, citant Karl Kraus: "Il y a longtemps que le ridicule ne tue plus et qu'il est même devenu un élixir de vie". Dans la lignée de l'affaire Sokal et de ses suites (1), Jacques Bouveresse montre notamment dans ce livre combien l'utilisation du théorème de Gödel(2) peut être employée à toutes les sauces par certains "penseurs"(3) pour persuader le béotien du bien-fondé de ce qu'ils avancent. 

Citons, parmi les exemples cités par l'auteur, cette phrase tirés d'un écrit de Régis Debray(4) :
""L'émancipation du genre humain", on sait de science certaine, en vertu d'un axiome, l'incomplétude, que c'est un leurre, éternel et nécessaire, mais il vaut mieux, sommes toutes, que la résignation au cynisme sec du chacun pour soi".
Nous restons ébahis! Moins par la profondeur de cette phrase que l'énoncé de l'idée d'un "axiome d'incomplétude", relevant d'un non-sens pur et simple (R.Debray emploie un mot pour un autre : axiome pour théorème, montrant sa haute connaissance du sujet). De toutes façons, on se demande ce que vient faire l'incomplétude gödélienne là-dedans...
Dès lors, comme le dit Jacques Bouveresse, "la fabrication d'un théorème de Gödel pour philosophes a l'avantage de dispenser de toute compréhension réelle du résultat de Gödel et de permettre en même temps de faire croire qu'on en a une compréhension beaucoup plus profonde que tous ceux qui en ont parlé jusqu'ici. La question cruciale est justement  de savoir s'il est admissible que, déjà chez un philosophe, il n'y ait plus rien d'autre qu'une certaine ressemblance de langage avec le matériau scientifique initial pour témoigner de l'origine de ce dont il parle ou si l'on est en droit d'attendre de lui une façon un peu plus sérieuse de traiter un résultat scientifique qu'il cherche à transposer et à généraliser".

(1) Ce physicien a fait accepter, en 1996,  par une revue américaine sérieuse, un canular rédigé dans le plus pur style postmoderniste. Ce texte était constitué largement de citations et de paraphrases renvoyant le lecteur aux oeuvres de certains des intellectuels français actuellement les plus réputés et les plus influents aux Etats-Unis, mais trahissait en même temps ses véritables intentions par la présence d'un nombre non-négligeables d'erreurs et d'absurdités scientifiques et épistémologiques patentes. Alan Sokal a révélé ensuite la supercherie et publié plus tard avec un autre physicien, Jean Bricmont , l'ouvrage "Impostures intellectuelles" exploitant de manière plus exhaustive le matériau édifiant qu'il avait comencé à réunir avant d'écrire sa parodie.
(2) Du mathématicien Kurt Gödel (1906-1978) : on doit non seulement à ce logicien d'avoir résolu certains des principaux problèmes soulevé par la logique mathématiques à ses débuts, jetant ainsi  une lumière nouvelle sur l'ensemble des mathématiques, mais aussi d'avoir fourni à sa discipline un corpus de concepts, de méthodes et de résultats dont elle tire à ce jour une bonne part de sa substance.
(3)Pour ne pas les citer : Régis Debray, Jacques Derrida, Jean-François Lyotard, Julia Kristeva, Bernard-Henri Lévy et même Michel Serres (épinglé pour son "principe de Gödel-Debray")...
(4) "Le rire et les larmes", Libération du 14-15 septembre 1991, page 7.

Voici quelques titres de chapitres de l'ouvrage: "De l'art de passer pour scientifique au yeux des littéraires ; Comment les coupables se transforment en victimes et accusateurs ; Les avantages de l'ignorance et la confusion considérée comme une forme de compréhension supérieure ; La liberté de penser sans la liberté de la critiquer.
Nul doute qu'avec ce livre roboratif, l'auteur ne  va certainement pas se faire que des amis parmi ses pairs... Rappelons que Jacques Bouveresse est philosophe. C'est  tout à son honneur.

Un dipôme universitaire sur l'évaluation des risques thérapeutiques
Médecine-enseignement
Vendredi 19 novembre 1999

La faculté de médecine Saint-Antoine (université Pierre et Marie Curie) propose un diplôme universitaire sur la méthodologie de l'évaluation des risques thérapeutiques, organisé en collaboration avec les directions de la pharmacovigilance de Hoechst Marion Roussel, de Synthélabo et de Pasteur-Mérieux Connaught.
Cet enseignement est destiné à acquérir des techniques relative à la surveillance, l'évaluation et la maîtrise des risques thérapeutiques en général. Il se veut pragmatique, avec de nombreux travaux dirigés traitant les sujets les plus récents concernant le risque iatrogène. Les douze séances de cours auront lieu à l'hôpital Tenon (amphithéâtre Lian, 4 rue de la Chine, 75020 Paris), le mardi, entre les mois de janvier et de juin. Au programme : épidémiologie, perception et gestion du risque thérapeutique, risques liés à l'usage des médicaments, autres risques thérapeutiques : rayonnements ionisants, matériels et dispositifs médicaux, biotechnologies, sang et dérivés sanguins...
Cet ensemble (durée de l'enseignement : 96 heures, dont 20 heures de travaux dirigés) est sanctionné par un examen écrit  (durée 2 heures) et la soutenance orale d'un mémoire bibliographique.

Les personnes intéressées doivent se manifester au plus vite car cette formation n'accueille qu'une vingtaine d'étudiants. A ce jour, il reste quelques places.

Renseignements : Dr Antoine Flahault (site web : http://www.b3e.jussieu.fr/flahault)
Unité de biostatistique et informatique médicale, hôpital Tenon
Tél : 01 56 01 68 13
Fax : 01 56 01 68 14
Mél : flahault@b3e.jussieu.fr

Une très bonne chose  lorsque l'on connaît  le déficit français en formation sur le risque du médicament, et particulièrement en formation sur l'ensemble des risques thérapeutiques dont ce diplôme universitaire constitue une première en France.
A noter : le 1er cours, colloque sur le thème "Les niveaux de preuves exigées sur la décision sur les risques" aura lieu le 4 janvier. Il est ouvert à l'ensemble des citoyens.

Allongement de la durée de vie des souris d'un tiers par la suppression d'un gène...
Génétique
Jeudi 18 novembre 1999

Une étude menée par des chercheurs italiens sur des souris, parue ce 18 novembre dans la revue Nature (voir référence en fin de texte), montre que la suppression d'un gène spécifique permet d'enregistrer un allongement de plus d'un tiers de leur durée de vie, sans qu'elles ne développent de troubles apparents.
"Si nous savions depuis au moins dix ans que chez certaines espèces animales -par exemple les vers et les mouches- la durée de vie était contrôlée par quelques gènes, dont l'élimination provoque l'allongement de la durée de vie, personne n'avait prouvé jusqu'à présent  que la même chose était valable aussi chez les mammifères", a notamment déclaré Per Giuseppe Pelicci (directeur du département d'oncologie expérimentale de l'Institut européen d'Oncologie, co-auteur de l'article), lors d'une conférence de presse donnée à Milan.
Les travaux ont porté sur la suppression  chez la souris du gène contrôlant la protéine p66shc, qui elle-même gouverne la réponse cellulaire au stress oxidatif  (mécanisme répondant au fonctionnement interne de la cellule ou à des facteurs extérieurs comme les rayons ultraviolets, provoquant sur la cellule des dommages qui augmentent avec le processus de vieillisement). Les souris privées de la protéine p66shc se sont montrées plus résitantes au stress oxidatif et ont vu leur vie prolongée. Ainsi, ces résultats établissent un lien direct entre le stress oxidatif et le viellissement, suggérant que les gènes qui régulent la réponse cellulaire à ce stress déterminent aussi la durée de vie des souris.

NB : Des résumés succincts en anglais, voire des articles complets parus sur le site web de Nature peuvent être obtenus, après inscription gratuite (attention, pour que l'inscription aboutisse, il faut absolument cocher sur quelque chose à la rubrique State/Region:* du questionnaire, même si ce n'est pas adapté à votre pays).

Peut-on appliquer ceci à l'Homme, puisque le même gène a été identifié sur nous et rien n'indique que celui-ci fonctionne différemment? Sera-t-il possible de disposer d'un inhibiteur enzymatique  spécifique qui puisse avoir sur la cellule le même effet que l'élimination du gène? L'inhibation du gène contrôlant la protéine p66shc par un médicament spécifique permettrait alors de maintenir l'intégrité cellulaire : des  laboratoires pharmaceutiques ont déjà fait part de leur intérêt pour ces recherches auprès des auteurs de l'article.
Mais quel serait le prix à payer pour cette source de jouvence? : des recherches ont montré que l'allongement de la vie pour des animaux inférieurs se traduisaient, notamment, par une fertilité réduite... En tous cas, les souris sans p66shc, elles, apparaissent pour l'instant comme tout à fait normales.

Pluie d'étoiles filantes cette nuit ?
Astronomie
Mercredi 17 novembre 1999

23h50 passé. Ciel parisien dégagé, température assez froide. Conditions idéales d'observation. Une pluie d'étoiles filantes est annoncée pour cette nuit. J'ai beau scruter vers l'est depuis plus d'une heure... rien. Pas le moindre cheveu lumineux. Ne désespérons pas : le point culminant de cette pluie d'étoiles est prévu pour 3h08. Rappelons cependant que l'année dernière aussi on nous promettait aussi un magnifique spectacle, mais les prévisions des experts ont toutefois leurs limites : la double averse d’étoiles filantes alors enregistrée, avec un premier pic d’activité plus important que le second, en est l’exemple type. Le premier maximum de l’effervescence s’est produit le 17 novembre au petit matin. C’est-à-dire avec seize à vingt d’heures d’avance par rapport à la pluie annoncée. La seconde averse s’est effectivement produite le 17 au soir, avec une intensité plutôt modérée. Finalement, on n'a pas vu grand chose.
Il est 23h52 et je garde cependant espoir.
Pourquoi cette pluie d'étoiles? Parce que tous les ans, vers le 17 novembre, notre planète passe dans le sillage de la comète Tempel-Tuttle. L'essaim de Léonides, c'est à dire de poussières (de la taille de grains de sable) laissées par le passage de cette comète pénètre alors dans l'atmosphère à plus de 255 000 km/h et se consume, montrant dans le ciel des traînées lumineuses du plus bel effet.
Le dernier passage de la comète Temple-Tuttle au voisinage du Soleil est de la Terre estintervenue il y a 21 mois (ce que la comète fait tous les 33 ans) laissant derrière elle le fin filet de poussières. Et c'est normalement cette nuit que le maximum de ces poussières arrive dans notre atmosphère.

A propos des étoiles filantes

Les étoiles filantes sont des phénomènes célestes lumineux également désignés par le nom de météore. Ils se forment lorsqu’un grain de poussière cosmique, souvent associé à de la glace cométaire, pénètre à grande vitesse dans l’atmosphère de la Terre. Chauffé vers 3000 °C, le minuscule bolide se volatilise. Sa matière se disperse dans les couches d’air terrestre en moins d’une demi-seconde. Ce processus excite et ionise les molécules d’oxygène et d’azote présentes dans les environs. Ainsi naissent les brefs éclairs et, parfois, les puissants traits de lumière ou les boules de feu colorées dont on peut suivre la course depuis le sol. Le phénomène commence entre 180 et 120 km d’altitude. Il s'achève 20 à 30 km plus bas. Du fait de son énorme élan, le grain de poussière se fraye un chemin à travers les masses d’air connues pour composer l’enveloppe gazeuse de la Terre. Un couloir de gaz chaud et ionisé long de plusieurs kilomètres se crée.
Les étoiles filantes ne sont pas des phénomènes aussi rares et isolés qu’on pourrait le croire. Ils ne s’observent pas durant une période unique et bien définie de l’année. Au contraire, toutes les saisons sont plus ou moins propices à leur apparition. Au cours de sa révolution autour du Soleil, notre planète rencontre des nuages de poussières présents sur son passage. Ces derniers, également appelés essaims de météorites, possèdent une structure peu étendue. Du coup, l’avalanche de traînées lumineuses qui s’en suit semblera provenir d’un point unique : le radiant qui porte le nom de la constellation associée dans le ciel. Les spécialistes de l’observation des pluies de météores ont recensé environ une quinzaine de cas qui se reproduisent plus ou moins identiques à eux-mêmes chaque année. Les plus actives et les mieux connues de ces précipitations célestes portent les appellations évocatrices de Perséides, Orionides, Taurides et bien sûr Léonides. Elles animent le firmament tous les ans aux alentours des 11 août, 20 octobre, 1er et 17-18 novembre.

Activité prévue des Léonides
d'après David Asher, observatoire d’Armagh (Irlande du Nord)

Années

Intensité prévue*

Régions concernées

1999

1500

Europe, Moyen-Orient, Afrique

2000

100-5000

Europe, Afrique, Etats-Unis, Atlantique

2001

10-35 000

Asie, océan Pacifique, Australie

2002

25 000

Amériques

2006

150

Europe occidentale et Afrique

*Intensité : il s’agit du nombre de traînées lumineuses observées
à l’œil nu en une heure, dans un ciel parfaitement noir et si le radiant se trouve au zénith.

Des microsources infrarouges pour mesurer la pollution
Physique de la matière condensée
Mardi 16 novembre 1999

Dans le cadre de recherche sur les semi-conducteurs, des chercheurs du Département de recherche fondamentale sur la matière condensée au Commissariat à l'énergie atomique (Grenoble) viennent de réaliser des microsources infrarouges qui pourraient connaître un avenir prometteur dans la lutte contre les gaz polluants. Ces sources sont composées d'empilement de couches minces (ou microcavité), associés à un film semi-conducteur, ensemble qui a la propriété de convertir un rayonnement quelquonque, celui d'une diode par exemple, en un rayonnement infrarouge d'une longueur d'onde précise.
Rappelons que les gaz polluants peuvent être reconnus grâce à leur absorption spécifique dans l’infrarouge. Les principaux (CO, CO2, SO2, NOx, N2O, HF, HCl) présentent, entre 3 à 6 µm, des bandes d'absorption très intenses et bien séparées les unes des autres. On peut donc mesurer la concentration d’un gaz si on dispose d’une source infrarouge capable d'émettre ces longueurs d'onde précises, ce qui s'avère possible avec les microsources obtenues par ces chercheurs. Dès lors, en adaptant des sources spécifiques pour la plupart des gaz liés aux phénomènes de pollution, il est possible de réaliser avec ces sources des toximètres (ou explosimètres) compacts, ou encore de les utiliser pour contrôler, au travers de la ligne d'échappement, les gaz rejetés par un véhicule.

Une belle avancée

Jusqu'à présent, il n'existait pas de source infrarouge satisfaisante pour mesurer la concentration d'un gaz. L'idéal aurait pu être d'utiliser un composant semi-conducteur, tel que la LED d'une télécommande de télévision ou le le laser d'un lecteur de CD. Malheureusement, si l'on sait fabriquer une LED dans l'infrarouge, son émission reste peu monochromatique et non directive. A l'opposé, le laser est suffisamment monochromatique pour discriminer les gaz, mais difficile, voire impossible à fabriquer aux longueurs d'onde qui sont intéressantes ici (entre 3 à 6 µm), à cause d'effets physiques dits non radiatifs.
Ainsi, à  défaut, la solution utilisée jusqu'à présent consiste à chauffer un filament qui émet alors un rayonnement fonction de sa température. Cependant l'émission est difficilement modulable (inertie thermique) et elle se répartit (corps noir) sur une gamme spectrale encore plus large qu'une LED. L'intensité utile pour la mesure, à une longueur d'onde donnée, est donc faible par rapport à la puissance électrique fournie. Comment réunir les propriétés optiques du laser avec la simplicité et le fonctionnement d'une LED, le tout dans la bande 3-6 µm?
Les travaux des chercheurs du CEA, avec l'insertion d'un film semi-conducteur dans une microcavité, ouvrent donc  aujourd'hui une voie prometteuse.

Schéma de principe d'un émetteur infrarouge à microcavité
Schéma de principe d'un émetteur infrarouge à microcavité.
Les miroirs de la microcavité sont constitués de couches
minces de YF3 et ZnS. Ils sont disposés de part et d’autre
du film semiconducteur (CdHgTe) dont l’épaisseur est
de l’ordre du micron, d’où le nom de microcavité.
Dans la structure présentée par les chercheurs, l'excitation du semi-conducteur est faite par une diode GaAs (du type lecteur de CD émettant à 0.8 µm).
Le film semi-conducteur (CdHgTe) convertit cette excitation en rayonnement infrarouge.
La microcavité permet, par rapport à une LED, de sélectionner une longueur d'onde et de renforcer, à la manière d'un laser (mais sans effet de seuil), l'émission de lumière à cette longueur d'onde.

Cette structure peut être réalisée par des procédés collectifs et donc à un coût potentiellement peu élevé.

Sur ce principe a été réalisé un démonstrateur qui fonctionne pour le méthane à température ambiante, dont le volume est voisin de 1 cm3 et qui ne nécessite qu'une pile de lampe de poche comme alimentation. Pour en valider les possibilités, les chercheurs ont positionné le démonstrateur face à une cellule de 5 cm de long contenant un mélange de butane et de propane et ont mesuré le signal transmis au travers de la cellule.
Les premiers résultats montrent qu'il est possible de mesurer, même sur cette courte distance d'absorption, la gamme des concentrations de 100 % à 0,1 %. De plus, la forte variation de signal (~ 200 mV) mesurée pour la concentration 0,1 %, promet une extension aux ppm  (parties par million) en utilisant une détection synchrone (puisque l'émission peut être modulée). Ces bonnes performances sont accessibles parce qu’en ajustant les paramètres physiques de la microcavité, on peut adapter exactement la longueur d'onde et la largeur spectrale de la raie émise, à la bande d'absorption du gaz.
Voici le résultat de cette adaptation pour le méthane:


spectre d'émission pour le méthane
Spectre d'émission d'un composant dont l’émission,
centrée sur 3.3 µm, et la largeur de bande, sont ajustées
à la bande d'absorption du méthane.

Le travail de ces chercheurs montrent qu'il est possible d'adapter des sources spécifiques pour la plupart des gaz liés aux phénomènes de pollution et donc de réaliser des toximètres compacts. Ces sources pourraient de même être utilisées pour contrôler, au travers de la ligne d'échappement, les gaz rejetés par un véhicule

Cette dernière application potentielle retient d'ailleurs l'attention d'industriels européens de l'automobile (dont Renault) et un programme de R&D est aujourd'hui en cours de montage, en collaboration avec le LETI/département optronique et département systèmes du CEA.

Des inventions brevetées mises aux enchères sur internet
Diffusion de l'innovation
Lundi 15 novembre 1999

Plus de 160 000 brevets auront été déposés cette année aux Etats-Unis par des inventeurs et entreprises de toutes sortes. Mais sans investisseurs pour développer et commercialiser ces inventions, beaucoup d'entre elles ne verront jamais le jour. L'expérience montre que seulement 10% des inventions venues des laboratoires d'entreprises privées sont effectivement exploitées par leurs initiateurs. 90% du vivier est donc abandonné, le plus souvent parce que les priorités de l'entreprises sont ailleurs ou parce que le temps et les ressources nécessaires à la commercialisation de ces concepts dépassent les critères de rentabilités pré-établis.
Fortes de ce constat, plusieurs sociétés américaines lancent sur internet des sites de mises aux enchères d'inventions. C'est le cas notamment de Yet2 (www.yet2.com), qui mène cette opération avec l'appui d'entreprises de recherche et de développement comme 3M, AlliedSignal, Boeing, Dow, Ford, Honeywell, Monsanto ou Philips... Si pour l'instant elle part du stock de brevets de ses sponsors prestigieux, Yet2 souhaite aussi mettre aux enchères les inventions d'instituts financés par l'Etat fédéral américain, comme par exemple les découvertes médicales des National Institutes of Health.
Citons également le site de la société Patent&Licence Exchange (http://www.Pl-x.com/) qui entend rapprocher l'offre et la demande, après avoir analysé la réputation des participants aux enchères, en offrant notamment la garantie que les vendeurs sont bien détenteurs de la propriété intellectuelle qu'ils proposent. Les enchères doivent commencer dans les prochaines semaines.

Formidable accélération de la diffusion de l'innovation ? Les résultats sont à suivre de près. A quand une telle initiative en France... ?

Satellite civil américain "Ikonos" de télédétection : des images d'une résolution de 1 mètre!
Télédétection civile
Mercredi 10 novembre 1999

Pékin : vue couleur de la place Tian'anmen et du palais impérial par le satellite. Résolution de l'image:  4 mètres Pékin : vue en noir et blanc de la place Tian'anmen et du palais impérial par le satellite. Résolution de l'image:  1 mètres

Pékin : vue de la Place Tian'anmen et du Palais impérial prise le 22 octobre 1999 par
le satellite  américain Ikonos, orbitant à 680 km d'altitude.
Résolution de l'image couleur : 4 mètres ; noir et blanc: 1 mètre. (Photo : Space Imaging)

Mis en orbite depuis le 24 septembre 1999, le satellite américain Ikonos sera bientôt opérationnel après son actuelle phase de calibrage. Les première images d'observation de la Terre obtenues par le satellite, dont un avant-goût est proposée sur le site internet de Space Imaging*  avec une vue de Pékin, révèlent des détails de l'ordre du mètre. Si cette définition était jusqu'alors réservée aux militaires, l'usage civil de tels clichés est désormais encouragé outre-Atlantique (l'exemple de Space Imaging devant bientôt  être suivi par les systèmes Earth Watch et Orbimage), les Américains voyant sûrement là une occasion de s'imposer sur un marché commercial de la vente d'images actuellement dominé par les Français. Spot-image détient en effet aujourd'hui 57% du marché mondial, proposant des images de 10 mètres de définition au maximum** (Spot 5, prévu pour être lancé en 2001, montrera des détails de 2,5 mètres).
La haute résolution, avec ses usages très spécifiques, ne constitue cependant qu'un des aspects du marché de l'image satellitaire. Rappelons en effet que la précision est obtenue au détriment du champ embrassé: une image montrant des détails de 10 mètres embrasse 110 km sur un même cliché ; la largeur maximale est de 11 km lorsqu'on voit des détails de un mètre. La résolution métrique s'avère intéressante pour la prospection minière, par exemple dans les zones où la densité de linéaments est très élevée, pour  la recherche du pétrole ou du gaz, etc.  Elle est également d'une grande utilité dans des secteurs comme l'agriculture et l'urbanisme. Les applications s'annoncent  d'ailleurs gigantesques dans ce dernier domaine puisqu'elles devraient représenter 35% des emplois civils de l'image spatiale métrique en 2004.

* Qui va commercialiser les images d'ici la fin de l'année pour un  prix de 30 à 600 dollars le mille carré (260 hectares).
** 30 mètres avec le système Landsat des Américains.

Dis maman... les méthodes d'imagerie médicale, c'est quoi ?
Imagerie médicale
Mardi 9 novembre 1999

Rien de terrible dans l'actualité de ce jour. Profitons-en pour parler de l'imagerie mécicale, qui connaît un développement fulgurant depuis ces dix dernières années...

Initiée au début du siècle avec la radiographie par rayons X, l'imagerie médicale a donné lieu à de nouvelles techniques comme l'IRM (imagerie par résonance magnétique) ou la TEP (tomographie par émissons de positons), aujourd'hui accessibles aux patients, permettant de faire des analyses in vivo, de visualiser le fonctionnement cérébral ou cardiaque, etc.
Donnant par ailleurs la possibilité de suivre le trajet d'un médicament dans le corps, ces techniques constituent un atout capital dans le développement de nouveaux médicaments.


On peut classer les techniques d'imagerie en deux catégories :

IRM dans le cerveau
Imagerie par résonance magnétique
après greffe de neurones dans un cerveau malade.
Les sites d'implantation des greffes sont indiqués
par les flèches (photo:CEA/CNRS/INSERM)

         - Les techniques qui n'utilisent pas de traceur : ce sont les propriétés intrinsèques de l'objet à visualiser qui sont ici exploitées. C'est le cas des rayons X (absorption de la matière), de l'IRM (résonance, sous l'effet d'un champ magnétique intense, des noyaux d'hydrogène très abondants dans l'eau, l'hémoglobine et les graisses des tissus), etc. Ces techniques permettent en général de réaliser une image anatomique. Toutefois, avec l'IRM, on peut également faire de l'imagerie fonctionnelle (IRMf), en visualisant par exemple la variation du débit sanguin local, via les propriétés magnétiques de l'hémoglobine.

      

Tomographie par émission de positons
Visualisation par TEP de la répartition
de brins d'ADN
marqués dans l'organisme
(photo : CEA/INSERM)

- Les techniques qui nécessitent un traceur (élément radioactif ou isotope stable): la molécule marquée est intégrée à la molécule que l'on souhaite suivre, cette dernière étant administrée dans le corps (en général par voie intra-veineuse). Un équipement adapté (caméra  en tomographie par émission de positons ou par émission de simples photons) permet de visualiser le trajet de ce traceur.
  • La TEP utilise comme traceurs des isotopes artificiels de l'oxygène, du carbone ou du fluor, émetteurs de positons. Ces éléments radioactifs peuvent être fixés sur une molécule d'eau (pour l'observation du débit sanguin), sur une molécule proche du glucose (pour la mesure de consommation de glucose dans le coeur ou le cerveau), sur des protéines d'acide gras (pour la synthèse protéique), ou encore sur des molécules à usage thérapeutique. Dans ce dernier cas, la TEP permet de visualiser in vivo le trajet et la localisation du médicament dans le corps humain.
  • La tomographie par émission de simples photons (TEMP ou encore SPECT), quant à elle, utilise des isotopes radioactifs de l'iode, du technetium, du thallium ou de l'indium, qui émettent des rayons gamma. Cette technique permet de visualiser la distribution tridimensionnelle du radiotraceur et également de le quantifier.
  • La spectroscopie RMN, qui utilise le même principe de résonance magnétique nucléaire que l'IRM, permet, en outre, si l'on utilise des isotopes stables, d'obtenir des informations sur le métabolisme des molécules marquées que l'on injecte au patient : cette technique permet de déterminer la concentration et la forme biochimique des molécules marquées que l'on retrouve dans un volume défini d'un tissu biologique. Ceci peut être notamment particulièrement utile pour l'étude du métabolisme de certains médicaments.

logo IRD Les chimpanzés filtrent leur eau avant de la boire
Primatologie
Lundi 8 novembre 1999

Les chimpanzés et les babouins savent filtrer l'eau qu'ils boivent. C'est ce qu'ont constaté deux primatologues de l'Institut de recherche pour le développement (ex-Orstom) au terme d'une étude menée au Sénégal, dans le parc national du Niokolo Koba. La filtration leur permet de se débarrasser des agents pathogènes que l'on trouve dans les flaques voisines, où l'eau est croupie et insalubre.

Les primates pratiquent la filtration lors de la saison sèche, lorsque les rivières se réduisent à quelques flaques d'eau résiduelles. Les babouins creusent des trous dans le sable à la main, tandis que les chimpanzés se servent souvent d'un bâton. Quel que soit le moyen utilisé, le trou se remplit éventuellement d'eau. L'analyse bactériologique démontre que cette eau, filtrée par le sable avoisinant, est limpide et dépourvue des bactéries qui rendent les flaques avoisinantes impropres à la consommation.

Stockage d'hydrogène dans des nanotubes de carbone
Technologie
Vendredi 5 novembre 1999

La revue Science du 5 novembre 1999, des chercheurs chinois et américains ont réussi à stocker de l'hydrogène dans des nanotubes de carbone (diamètre de l'ordre du millionième de millimètre). Les équipes de l'Institut de recherche des métaux de Shenyang (Chine) et du Massachusetts Institut of Technology américain (MIT) ont en effet obtenu des nanotubes qui incorporent une quantité relativement importante d'hydrogène à l'intérieur de leur structure
Environ 80% de l'hydrogène stocké peut être restitué à température et pression ambiante, le reste pouvant être extrait après chauffage des nanotubes.
Les chercheurs ont trempé pendant 48 heures une masse de nanotubes de carbone d'environ 500 grammes dans une solution d'acide chlorhydrique, puis l'ont chauffée sous vide. Ils ont ainsi obtenu le stockage de 4,28% d'hydrogène par rapport au poids final des nanotubes traités.
Cette découverte ouvre une nouvelle voie au stockage de l'hydrogène, l'un des principaux obstacles au développement des piles à combustible qui impliquent des réservoirs encombrants pour l'hydrogène, peu compressible.

  • Science, 5 novembre 1999, volume 286 n°5442, pages 1127-1129 : "Hydrogen Storage in Single-Walled Carbon Nanotubes at Room Temperature"
    A savoir : Le site web de Science propose après inscription (cliquer dans l'option "Register free") un accès gratuit à "Science online".

Pour ne pas mourir idiot

nanotubes de carbone

Photo : CNRS

Les nanotubes de carbone, observés pour la première fois en 1991 au microscope électroniques, sont composés d'une ou plusieurs feuilles de graphite enroulée(s) en forme de cylindre, d'un diamètre de l'ordre du nanomètre (un millionième de millimètre) : pour mieux fixer les idées, disons qu'il en faudrait 50 000 liés en gerbe pour atteindre l'épaisseur d'un cheveu!
Les caractéristiques étonnantes de ces objets bizarre (grande rigidité, forme de tube avec une cavité pouvant être remplie, capacité d'émettre un courant électrique à froid) en font l'un des matériaux les plus prometteurs pour la recherche.
Ils peuvent être produits assez simplement, mais une fabrication industrielle n'est pour l'instant pas encore envisageable.

L'angiogenèse pour éviter le pontage coronarien
Médecine
Mercredi 4 novembre 1999

Selon  une équipe de chercheurs dirigée par le Pr Michael Simons, de la Faculté de médecine de Harvard (Massachusetts), une nouvelle thérapie, l'angiogenèse, consistant à favoriser la naissance de vaisseaux sanguins, offre une méthode alternative prometteuse pour les patients pour lesquels un pontage coronarien est inadapté.
La méthode consiste à injecter dans le coeur du patient un facteur de croissance, contenu dans une miniscule capsule. La  substance se libère progressivement et favorise un processus appelé angiogenèse : la naissance de nouveaux vaisseaux sanguins dans les parties endommagées de l'artère coronaire.

Le pontage coronarien consiste à établir une déviation simple ou multiple dans la circulation du sang lorqu'une artère est bouchée, à l'aide d'une greffe d'une section d'artère ou de veine prélevée en général sur un membre du patient.

Quelques adresses utiles

Réseau français d'angiogenèse
(http://www.ibl.fr/angiogenese/angiogenese.shtml)
Angioweb : serveur médical traitant de médecine vasculaire
(http://www.angioweb.fr/)
Régime et conseil alimentaires
(http://www.multimania.com/marcgaudreault/documents.htm/coeur.htm/coeur.html)

Transmission héréditaire d'un caractère acquis démontrée chez un mammifère
Génétique
Mercredi 3 novembre 1999

Des travaux de chercheurs australiens, britanniques et américains publiés dans le  Nature Genetics  du 3 novembre (voir référence en fin de texte) montrent qu'un caractère acquis chez la souris peut se transmettre à la descendance. C'est la première fois que la transmission héréditaire d'un caractère acquis est démontrée aussi nettement sur un mammifère : la règle admise jusqu'à présent en génétique (s'appuyant sur les travaux de Darwin et de Mandel) considérant  l'impossibilité d'une telle transmission héréditaire se voit donc  aujourd'hui  sérieusement bousculée...

On sait en fait encore très peu de choses de l'acquisition d'un caractère. 
Les caractères "de base" étant considérés comme les caractères codés par les gènes hérités des parents, on tient pour acquis tout ce qui modifie durablement l'expression de ces séquences : il peut notamment s'agir des remaniements chromosomiques normalement liés à la synthèse des Ig, de l'acquisition d'un rétrovirus. Il peut s'agir également de phénomènes qui, sans modifier les séquences d'ADN, en modifient  l'expression (par exemple, la fixation de groupement méthyls sur l'ADN, empêchant sa transcription) ou encore de  l'existence de remaniements liés aux déplacements de séquences mobiles de l'ADN (appelées transposons) qui peuvent éventuellement modifier l'expression de gènes situés en aval du site d'insertion, voire interrompre l'expression d'un gène. Mais toutes ces modifications épigénétiques ne sont en principe pas transmises à la descendance. En effet, lors de la méiose, se produit un phénomène "d'effacement", phénomène encore inexpliqué, mais dont l'utilité se conçoit aisément. En effet,  effacer les modifications épigénétique permet de repartir d'une cellule totipotente. Dit de façon imagée: ce phénomène remet les compteurs à zéro... 
Tout cela semble désormais devoir être relativisé si l'on en juge des travaux aujourd'hui publiés. Les résultats, qui  montrent  la transmission à une descendance (par un transfert d'embryons sur des groupes de souris génétiquement parfaitement homogène) de l'état de méthylation d'un fragment d'ADN, caractère ne résultant pas d'un statut génétiquement déterminé  mais de conditions épigénétiques, obligent d'envisager  comme possible la transmission héréditaire de caractères acquis chez le mammifère. Cette démonstration vient réhabiliter, au moins partiellement,  l'hypothèse évolutionniste de Lamark énoncée il y a quelque 200 ans. 
L'acquis engagerait donc notre responsabilité, ce qui n'est pas le cas de l'hérédité au sens restreint, accepté jusqu'à présent. Accepter l'héritabilité de certains  acquis force à revoir bon nombre de notions en génétique.

  • Nature Genetics, 3 novembre 1999, vol 23 n°3, pages 314-318 : "Epigenetic inheritance at the Agouti locus in the mouse", par H.D Morgan, H.G.E Sutherland, D.I.K Martin & E Whitelaw .  
    Voir également, pages 254-256,  l'éditorial de Rosalind M John et M Azim Surani.

A terme, les conséquences de cette découverte pourraient être considérables en médecine.  A suivre...

Adoption du Budget Civil de Recherche et de Développement 2000 à l'Assemblée nationale
Politique de la recherche
Mardi 2 novembre 1999

Le projet de Budget Civil de Recherche  et de Développement (BCRD) pour l'an 2000 a été adopé, le 2 novembre dernier, à l'Assemblée nationale. Il s'élève à un peu plus de 54, 646 milliards de francs en dépense ordinaire + crédit de paiement (DO+CP), soit une progression de 1,3% par rapport à la Loi de finances de 1999. Les autorisations de programme (AP), dont le montant est de 22, 844 milliards de francs progressent, à structure constante, de 2,2%.
On constate, notamment :
- les moyens du Fonds National de la Science (FNS), se montent à 700 millions de francs en AP (soit une progression de 40%) et de 565 millions de francs en CP (+77%). L'augmentation  constatée vise à la continuité des actions concertées incitatives dans les secteurs comme les sciences du vivant, sciences de la planète et de l'environnement, sciences humaines et sociales...
- les crédit du Fonds de Recherche Technologique (FRT) et de diffusion des technologies du secteur spatial s'élèvent à 905 millions de francs, soit une progression de 35%. Elle doit permettre d'amplifier les moyens de recherche dans les secteurs des nouvelles technologies de l'information et de la communication (RenaterII, réseau national de télécommunications), des transports et de l'environnement ; de réitérer cette année 2000 le concours national de création d'entreprises de technologies innovantes et la mise en place d'incubateurs d'entreprises.
- la dotation des Etablissements publics à caractère scientifique et industriel (EPST) est en augementation de 1,4% en DO+CP et de 3% en AP.
- les crédits de la recherche universitaire augmentent de 3,1%.
La dotation de la recherche amont affectée aux programmes aéronautiques civils progresse de 4% en AP et 1% en CP.

Vers la microélectronique molle
Microélectronique
Lundi 1er novembre 1999

Selon une étude parue le 29 octobre dans la revue Science (voir référence en fin de texte), les ingénieurs du Centre de Yorktown Heights  (près de New-York -USA) d'IBM  ont mis au point un nouveau type de semi-conducteur qui ouvre la voie à la microélectronique "molle". Si les puces actuelles sont fabriquées sur un substrat semi-conducteur rigide, fait de silicium, de nombreux laboratoires planchent désormais sur la possibilité d'utiliser d'autres matériaux comme substrat, par exemple les matériaux inorganiques (à base de carbone), afin de remplacer le silicium.
L'équipe  d'IBM a mis la main sur un matériau (de la perovszkite : (C6H5C2H4NH3)2SnI4 ) dont les molécules, lorsqu'il se solidifie, s'organisent spontanément en un film très fin et souple.
Avec une fabrication à basse température, donc moins coûteuse, et la possibilité de l'utiliser sur un support en plastique mou, ce nouveau semi-conducteur pourrait être utilisé pour des écrans plats ou du papier électronique.

  • Science, 29 octobre 1999, volume 286 n°5441, pages 945-947: "Organic-Inorganic Hybrid Materials as Semiconducting Channels in Thin-Film Field-Effect Transistors ", par C. R. Kagan, D. B. Mitzi, C. D. Dimitrakopoulos
    A savoir : Le site web de Science propose après inscription (cliquer dans l'option "Register free") un accès gratuit à "Science online".

http://www.admiroutes.asso.fr/action/theme/science/actu/1999/1999nove.htm
Droits de diffusion