Actualité scientifique

décembre 1999

retour accueil "actualité scientifique"
Par Christophe Jacquemin

Thérapie génique sur quatre bébés : une première mondiale, française, pour des résultats qui semblent prometteurs
Thérapie génique
Mardi 28 décembre1999

Pour la première fois au monde, quatre bébés atteints de déficiences de leur système immunitaire ont pu voir leur état nettement amélioré grâce à un traitement génétique. Si cette nouvelle ouvre de grands espoirs, la prudence en ce domaine doit rester de rigueur. Alain Fischer et Marina Cavazzana-Calvo (unité INSERM U429) , les médecins qui ont dirigés les essais à l'hôpital Necker-Enfants malades  à Paris, ne donnent d'ailleurs aucun détail sur ce travail avant que leur article scientifique (soumis pour l'instant à la revue Science) soit publié et discuté par leurs pairs.
Cet essai thérapeutique a débuté en février dernier sur quatre bébés atteints du déficit immunitaire combiné sévère (SCID-X), maladie rare et mortelle, due à la mutation d'un seul gène présent sur le chromosome X. Celle-ci se caractérise par des infections graves, les bébés n'aillant aucun lymphocytes T ou NK pour se défendre. Dès lors, ces enfants doivent vivre constamment sous une bulle, en milieu stérile.
Les chercheurs ont d'abord prélevé les cellules progénitrices de la moelle osseuse des bébés puis transféré une copie du gène normal dans ces cellules grâce à un vecteur dérivé d'un rétrovirus de souris. Les cellules ainsi modifiées ont ensuite été réinjectées aux bébés.
Depuis, les quatre enfants traités semblent en parfait santé, leurs cellules expriment le récepteur normal et fonctionnel permettant de fabriquer des lymphocytes T en quantité normale (pour trois d'entre eux, le dernier restant encore en observation) et en ordre de marche. Ils ne font plus d'infection.
La question est désormais de savoir si ces bébés sont totalement guéris ou simplement en rémission  tempororaire ? En effet, il est aujourd'hui impossible de dire si ce sont les cellules souches multipotentes à la source de toutes les lignées de cellules sanguines qui sont "guéries" ou simplement les "ancêtres " des lymphocytes.

Pour ne pas mourir idiot
Thérapie génique : mode d'emploi

La thérapie génique comporte trois phases essentielles :

  • la localisation du (ou des) gène(s) responsables de la pathologie. C'est dans ce but qu'a été lancé le programme "génome humain",
  • le traitement proprement-dit, qui consiste à prélever des cellules du malade et à remplaçer le gène "défaillant" par un gène efficace. Celui-ci est ensuite réintroduit dans la cellule grâce à un vecteur (un virus que l'on a désactivé), qui permet d'atteindre la cellule en franchissant le système immunitaire du patient sans encombre,
  • la réintroduction des cellules traitées dans l'organisme. Ce sont des cellules qui peuvent se renouveler (cellules de la moelle osseuse). En se divisant, elles transmettent la modification génétique à leur descendance (cellules sanguines, des muscles, du foie, de la peau). Le "nouveau programme", porté par le gène réimplanté, passe ainsi dans l'ensemble de l'organisme.


Si la guérison est avérée, cette expérience risque d'avoir une portée considérable : ce serait la première guérison obtenue,  à ce jour, grâce à la thérapie génique.
Si les chercheurs restent pour l'instant circonspects (aucune déclaration avant la publication de leurs travaux dans Science), la nouvelle est cependant parue dans la presse. D'après les journaux, c'est le père d'un des bébés (un bébé britannique) qui aurait ébruité la nouvelle en proposant un article sur le sujet dans le Sunday Times... Difficile de savoir garder les secrets...

Le magazine "La Recherche" lance sa nouvelle formule
Presse scientifique
Lundi 27 décembre1999

La recherche : janvier 2000     Créé en 1970, diffusé aujourd'hui à 72000 exemplaire, le mensuel La Recherche entend renforcer son audience auprès du "public intéressé par l'évolution des rapports entre science et société".
Le numéro de janvier 2000 inaugure une nouvelle maquette, un nouveau logo et une nouvelle couverture, avec un sommaire s'organisant désormais autour de quatre sections : Actualité des sciences ; Savoirs ; Sciences et société ; Idées.

Rappelons que le site web  de ce mensuel http://www.LaRecherche.fr présente notamment le sommaire du numéro en cours, avec quelques articles en ligne, ainsi qu'un condensé des articles parus depuis janvier 1998 (accès à ces archives provisoirement gratuit. Profitons-en...

Formalisation mathématique de la collision électron/atome d'hydrogène
Physique théorique
Vendredi 24 décembre1999

Des chercheurs américains viennent de formaliser la façon dont réagissent les particules impliquées dans une collision entre un atome d'hydrogène et un électron. Annoncé dans la revue "Science" du 24 décembre 1999 (voir référence en fin de texte), ce travail est exemplaire puisque, depuis près d'un demi-siècle, les théoriciens cherchent notamment à préciser comment réagissent les particules chargées issues de cette collision (rappelons que les collisions constituent l'un des phénomènes fondamentaux de la physique de l'atome).
En transformant l'équation de Schrödinger, et à l'aide d'ordinateurs extrêmement puissants, les chercheurs ont formalisé l'ionisation* d'un atome d'hydrogène lors d'une collision avec un électron (e- + H donne H+ + e- + e-  : l'électron frappe l'atome d'ydrogène avec une certaine vitesse et leur interaction produit deux électrons qui repartent sous différents angles, laissant derrière un proton). 
La question était de savoir si un tel phénomène se produit toujours et quel est l'angle et l'énergie avec lesquels s'échappent les électrons.
"Nos travaux fournissent une réponse complète, jusqu'au moindre détail", déclare le professeur Rescigno, qui estime qu'une telle approche pourrait être appliquée à des systèmes plus complexes qu'un impact d'électron.

* Production d'ions par modification du nombre d'électrons d'un atome. C'est, par exemple, ce phénomène qui produit la lumière fluorescente.


Pour ne pas mourir idiot :
à propos de Schrödinger
et de sa fameuse équation

La théorie fondamentale de la physique atomique, la mécanique quantique, fut formulée en 1924-1925, grâce aux recherches de De Broglie, Schrödinger, Heisenberg ainsi que de Born, Jordan et Dirac.
Le point de départ de De Broglie fut l'hypothèse que la dualité onde-corpuscule, établie pour les radiations depuis la conception du photon par Einstein, devait être extensible à la matière.
De Broglie et Schrödinger ont ainsi pu développer un parallélisme entre la mécanique classique et l'optique et parvenir à la conception de la mécanique ondulatoire. Dans cette théorie, l'étude du mouvement d'un électron - ou d'un système atomique quelconque - ne doit pas être fondée sur les trajectoires classiques, solutions des équations de Newton; ce mouvement est décrit par une onde associée à l'électron, l'onde de De Broglie, que définit une fonction complexe des coordonnées d'espace et de temps, (x, t ), solution d'une équation aux dérivées partielles, l'équation de Schrödinger
à laquelle on doit associer des conditions aux limites convenables.

Si il est "relativement simple" de résoudre l'équation de Schrödinger dans le cas de l'atome d'hydrogène, qui ne compte qu'un seul électron, cela le devient  beaucoup moins dès que le nombre d'électrons augmente, même avec l'assitance de puissants ordinateurs. On recourt généralement à des méthodes d'approximation telles que la théorie des perturbations et le calcul variationnel.


C'est de la formulation en 1926 de cette équation fondamentale de la mécanique quantique (et qui généralise l'équation d'onde de Louis-Victor de Broglie en tenant compte de la présence d'une énergie potentielle) qu'Erwing Schrödinger tire toute sa notoriété : si il existe plusieurs présentations mathématiques équivalentes de la physique quantique, la mécanique quantique de Schrödinger figure parmi les plus couramment utilisées, en tout cas enseignées... Ainsi, en appliquant aux particules l'équation d'onde élaborée par le physisien Autrichien, il est notamment possible de "cartographier" des volumes dans lesquels ont peu affirmer qu'existent des électrons d'une énergie déterminée, bien qu'on ne puisse les localiser précisément (ces volumes étant appelés orbitales atomiques).

Interprétation des concepts de la mécanique quantique :
Dès l'origine, en 1926, les théoriciens se sont trouvés confrontés au problème de l'interprétation des concepts de la mécanique quantique, et plus particulièrement à ceux de la matérialité du système onde-corpuscule et de la signification des relations d'incertitude ; les divergences ont abouti à trois types d'attitudes.

  • Celle de l'école de Copenhague, groupée autour de Niels Bohr, consiste à voir essentiellement, dans la fonction d'onde, à la suite des conceptions de Max Born, un formalisme probabiliste, allant jusqu'à refuser de considérer que le corpuscule puisse être localisé en un point quelconque de l'espace avant d'avoir été détecté, et affirmant que les relations d'incertitude fixent une limite absolue à la connaissance de l'univers microphysique, limite qu'il est vain de chercher à dépasser.
  • Une attitude radicalement opposée a été adoptée par les déterministes, groupes autour de Louis de Broglie, pour lesquels le corpuscule évolue sur une trajectoire aléatoire et discontinue, inaccessible aux mesures classiques mais bien localisée à chaque instant, indépendamment de toute mesure, accompagné par une onde présentant une réalité physique, les relations d'incertitude ne traduisant que les défauts des systèmes de mesure actuels.
  • La troisième attitude consiste à voir dans la mécanique quantique une théorie utile, malgré ses imperfections, et rendant compte correctement d'un certain nombre de phénomènes échappant à d'autres théorie


La mécanique quantique de Schrödinger
(passage à déconseiller aux non-matheux)

On considère que l'état d'un système quantique à un instant donné peut être décrit par une fonction complexe (x, t) des coordonnées, appelée fonction d'onde. Si le système est une particule isolée, la fonction d'onde mesure la probabilité de trouver la particule dans l'intervalle dx autour du point x à l'instant t par l'expression | (x, t) |2dx.
En d'autres termes, la description de l'état d'une particule, en mécanique quantique, se réduit à la seule connaissance d'une fonction des coordonnées et du temps, dite fonction d'onde. Cette fonction n'a pas de sens physique en elle-même, mais le carré de son module représente la probabilité de trouver à l'instant t les particules aux points de coordonnées correspondantes. Tout se passe comme si les particules avaient perdu leur individualité pour être remplacées par un nuage continu de densité ||2.

Chaque variable physique mesurable, ou observable, est représenté par un opérateur fonctionnel linéaire opérant sur l'ensemble des fonctions d'onde du système considéré ; les valeurs que peut prendre cette grandeur sont ses valeurs propres, et leur ensemble forme le spectre de la variable (ou de l'opérateur) ; on distingue les grandeurs à variation continue, qui ont un spectre continu (c'est-à-dire une infinité non dénombrable de valeurs ; cas des variables d'espace), et les grandeurs à variation discontinue (c'est-à-dire quantifiées), qui ont un spectre discret. Les opérateurs représentant des variables physiques ont nécessairement des valeurs propres réelles, puisque la mesure d'une grandeur est un nombre réel. L'ensemble des grandeurs caractéristiques d'un système physique qui peuvent être mesurées simultanément constitue un ensemble complet, dont sont exclues certaines grandeurs. Par exemple, dans le cas d'une particule mobile telle qu'un électron, on ne peut pas déterminer simultanément sa position et sa vitesse ; c'est ce fait que traduisent les relations d'incertitude, établies par Heisenberg, en 1925, qui fixent une limite aux possibilités de mesures sur les systèmes quantiques. L'équation fondamentale de la mécanique quantique est l'équation de Schrödinger :

équation de Schrödinger

que l'on peut écrire : H = W, où H est l'opérateur différentiel hamiltonien (dont Schrödinger a formulé les règles de construction), ou opérateur énergie ; c'est une équation aux dérivées partielles (Lettre Delta est l'opérateur laplacien), qui permet de calculer tous les états énergétiques possibles W d'une particule de masse m évoluant dans le champ d'une énergie potentielle V(x), et dont la solution est l'équation d'onde (x).

L'étude mathématique des solutions de l'équation de Schrödinger montre que l'énergie ne peut pas prendre des valeurs arbitraires, ce qui se traduit par l'existence de niveaux énergétiques discrets. Les valeurs de l'énergie fournissant des solutions acceptables sont appelées valeurs propres de l'opérateur hamiltonien, et les fonctions d'onde correspondantes, fonctions propres. On démontre que ces fonctions sont orthogonales entre elles. De plus, la théorie prévoit, en accord avec l'expérience, que, pour décrire complètement une particule, il faut lui adjoindre une coordonnée supplémentaire, dite de spin.


  • Science du 24 décembre1999, pages 2474 à 2479 : "Collisional Breakup in a Quantum System of Three Charged Particles", par T. N. Rescigno*, M. Baertschy**, W. A. Isaacs***, and C. W. McCurdy (** et***)
    *     Lawrence Livermore National Laboratory, Physics Directorate (Livermore)
    **   Department of Applied Science, University of California, Davis (Livermore)
    *** Lawrence Berkeley National Laboratory, Computing Sciences (Berkeley)

  • A savoir : Le site web de Science propose après inscription (cliquer dans l'option "Register free") un accès gratuit à "Science online".

    Vers le début de l'article

Photographie argentique : une découverte qui vaut de l'or
Chimie
Jeudi 23 décembre1999



  a)Effet du dopage (AgBr dopé (ligne pleine),
  AgBr non dopé (ligne pointilléee).
  b) Dépendance, en fonction du temps,
  du facteur de Kubelka-Munk (facteur KM)
  lors d'une absorption maximale
  pour les émulsions dopées et non dopées

 © Nature
    Un procédé permettant de décupler la sensibilité des émulsions des films  gélatine pour la photographie -et qui concerne aussi bien le noir et blanc que la couleur, la radiographie, l'offset ou l'holographie- vient d'être mis au point par une équipe franco-belge.Annoncés ce jour dans la revue scientifique "Nature" (cf. références en fin de texte), ces travaux montrent que la photographie traditionnelle -qui semblait condamnée à terme par l'arrivée du numérique- a encore de beaux jours devant elle.
"La photo numérique se trouve distancée de dix à vingt ans", estime Jacqueline Belloni, co-auteur de l'article. Actuellement, alors qu'une image 24x36 mm contient 200 à 300 millions de pixels (unités photosensibles), les meilleurs appareils numériques n'en possèdent que deux millions. "Avec notre procédé, on en obtient désormais deux milliards pour la photo traditionnelle", explique la chercheuse. Sur le plan fondamental, ce résultat est exceptionnel et proche des limites théoriques du procédé.
Les éléments photosensibles des émulsions contenus dans les films de gélatine, les cristaux  cubiques de bromure d'argent (AgBr), ont été dopés par addition de formate d'argent (à raison de 10-6 mol HCOO- par mol d'Ag+)  Résultat : deux atomes d'argent produits par chaque photon aborbé par l'émulsion, ce qui constitue un "rendement quantique" dix fois supérieur à ceux obtenus jusqu'ici. C'est la première fois, fondamentalement, que l'on arrive à convertir intégralement la lumière en fabrication d'argent.

Cet accroissement de la sensibilité pourra être utilisé soit pour réduire la durée de l'exposition (permettant ainsi de mieux capter un mouvement rapide, ou de réduire la dose d'irradiation lors d'une radiographie), soit, à exposition égale, pour photographier avec moins de lumière (éventuellement sans flash), ou pour accroître la définition, en réduisant la taille des cristaux de l'émulsion.

Nature, 23 décembre 1999 (letters), vol 402, page 865-867 : "Enhanced yield of photoinduced electrons in doped silver halide crystals ", par Jacqueline Belloni*, Mona Treguer*, Hynd Remita* et René De Keyser**
* Laboratoire de Physico-Chimie des Rayonnements, associé au CNRS, Université Paris-Sud, 91405 Orsay, France
**Agfa-Gevaert N.V., R&D Laboratories, 27 Septestraat, 2640 Mortsel, Belgium

Hubble, l'oeil magique des astronomes
Astronomie
Mercredi 22 décembre1999

Mike Foale et Claude Nicollier au chevet d'Hubble
© NASA
         


L'équipage de la navette spatiale américaine Discovery a arrimé hier-soir le télescope Hubble dans l'emplacement prévu pour sa réparation, à l'arrière de la soute de la navette. C'est la première visite que reçoit ce télescope de 12 tonnes (de la taille d'un autobus à deux étages) depuis sa dernière mission d'entretien.
Tout cela est très intéressant, mais ce qui l'est certainement beaucoup plus, et que l'on sait peut être moins, c'est que depuis son lancement en 1990 et la réparation trois ans plus tard de sa myopie congénitale (due à un défaut optique lors de sa construction), le télescope en orbite à plus de 600 km de la Terre a pris près de 300 000 clichés, détaillant pus de 13000 objets célestes, dont certains situés à plus de 11 milliards d'année-lumière (soit près de 9400 milliards de km).

Ainsi, en moins d'une décennie, les astronomes ont pu déterminer l'âge de l'Univers -entre 12 et 14 milliards d'années- et son taux d'expansion, observer le processus de formation des galaxies et la naissance des étoiles, assister à l'explosion de supernovae ou encore prouver l'existence des trous noirs (le télescope a permis de prouver leur existence au centre des galaxies, en capturant en 1997 dans la galaxie NGC 4261 les images d'un énorme disque de matière -poussière, gaz et même étoiles- en train d'être aspiré). Grâce à son pouvoir de résolution exceptionnel et libéré des contraintes des turbulences et de la pollution lumineuse atmosphérique, Hubble a photographié tous les différents stades de la vie stellaire, des pouponnières d'étoiles aux vestiges d'étoiles mortes, en passant par les gigantesques amas de galaxies en collision. Il a également détectgé la présence de disque proto-planétaires et nous a montré que le processus de création de systèmes solaires est finalement assez répandu. Plus près de nous, dans notre système solaire, le télescope a suivi durant l'été 1994 la collision entre la comète Shoemaker-Levy 9 et Jupiter, filmé des aurores boréales sur Jupiter et Saturne, photographié la surface de Pluton, ainsi que les changements de saison des planètes Uranus et Neptune.

Pour ne pas mourir idiot
télescope Huble
© ESA
       
  • Baptisé du nom de l'astronome américain Edwin Hubble (1889-1953), le télescope a été lancé le 25 avril 1990 par la navette Discovery. Sa mise à la retraite est prévue pour 2010. Il orbite à une distance de 612 km de la Terre, qu'il décrit en 95 minutes (orbite inclinée de 28,5 degrés sur l'équateur).
  • Hubble a été conçu par les Agences spatiales américaine (NASA) et européenne (ESA : European Space Agency) afin de déterminer l'âge de l'Univers, prouver l'existence des trous noirs et observer les objets célestes faiblement lumineux. Sa mise au point à coûté 1,6 milliard de dollars. L'Europe, qui a contribué à hauteur de 15% au coût financier dispose en échange de 15% du temps d'observation.

  • D'un poids est de 12,3 tonnes et d'une longueur 12,3 mètres pour un diamètre de 4,3 mètres, Hubble est un télescope de type Cassegrain (2,4 mètres de diamètre ; poids de 900kg) . Le foyer du télescope est muni de deux chambres photographiques : une caméra "grand champ" pour l'observation des planètes et une caméra pour objets de faible luminosité mise au point par l'ESA. Grâce à son dispositif de comptage des photons, elle est capable d'observer des objets 30 fois moins lumineux que ceux observable au sol et, grâce à sa capacité d'agrandissement des images, d'atteindre la limite de résolution du télescope, soit 0,1 seconde d'arc. Il est également équipé d'un spectrographe, équipé d'un récepteur d'images qui explore le spectre lumineux des astres pour déterminer leurs propriétés (température, composition chimique, vélocité rotationnelle, analyse du champ magnétique...). Il possède également un caméra infra-rouge couplée à un spectromètre multi-objets à haute résolution, un appareil cryogénique (opérant par grand froid) pour la photographie infrarouge et l'analyse des rayonnements.
  • Hubble a été conçu pour pouvoir être réparé dans l'espace. Après son lancement, un défaut de la sphéricité du miroir primaire a été détecté. Un dispositif correcteur (COSTAR) a été installé à la place d'un photomètre en 1993, de même qu'une nouvelle caméra planétaire et de nouveaux panneaux solaires. Une autre mission a eu lieu en 1997 au cours de laquelle ont été remplacés des instruments défaillants. Deux missions sont prévues en 2001 et 2003.

    Quelques une des principales découvertes obtenues grâce à ce télescope

  • L'univers est vieux de 12 milliards d'années (marge d'erreur de 10%) : on estimait jusqu'à présent cet âge entre 10 et 20 milliards d'années,
  • L'univers est en expansion illimitée : comme l'avait prévu l'astronome américain dont il porte le nom, Hubble a confirmé que le rythme d'expansion de l'univers ne s'est pas ralenti depuis le Big Bang. Parce que la masse de l'univers est insuffisante, cette expansion devrait se produire indéfiniment. Aux dernières nouvelles, l'univers contiendrait quelque 100 milliards de galaxies
  • Au centre des galaxies trône un trou noir supermassif : chacune des galaxie observée par Hubble abrite une énorme masse de matière en effondrement gravitationnel, si dense qu'elle aspire tout ce qui passe à proximité, y compris la lumière, en dégageant un flamboiement de rayonnement ultra-violet. Ces objets peuvent aspirer une masse équivalente à des milliards d'étoiles et la compacter en une région à peine plus grande que notre système solaire
  • La formation des planètes est un phénomène courant : Hubble, pointant ses miroirs vers la constellation d'Orion, a observé autour de ses plus jeunes étoiles des disques de poussière et de gaz, dont la contraction donne naissance aux planètes.
  • L'usine à étoiles ne s'arrète jamais : Hubble a surpris la formation de jeunes étoiles

Maladie de la vache folle : la transmission à l'homme se confirme
Santé publique
Mardi 21 décembre1999

Alors qu'un troisième cas humain en France du nouveau variant de la maladie de Creutzfeldt-Jokob lié à la maladie de la vache folle serait suspecté, une équipe de chercheurs anglo-américains publient des travaux apportant des arguments supplémentaires en faveur d'un lien de causalité entre la maladie chez les bovins et ce nouveau variant chez l'homme.
Parus dans la revue américaine "Proceedings of the National Academy of Sciences" datée du 21 décembre, les travaux effectués sur des souris (voir références en fin de texte) ont d'abord consisté à créer une lignée de souris porteuses des gènes servant à contrôler des prions.

  • Dans un premier temps, les scientifiques de l'université de Californie à San Francisco et de l'unité britannique de surveillance de la maladie de Creutzfeldt-Jakob, basée à Edimbourg (Ecosse), ont injecté, sur une partie de ces souris, des prions prélevés sur des bovins malades : au bout de 250 jours, les rongeurs ont a leur tour développé la maladie.
  • Un deuxième groupe de souris a alors reçu des injections de prions provenant du premier groupe de souris. Ces rongeurs eux aussi sont tombés malades, virtuellement dans le même laps de temps.
  • Une troisième expérience (et c'est vraiment ici la nouveauté dans cette recherche) a consisté à injecter aux souris des prions prélevés sur des êtres humains atteints de la nouvelle forme de la maladie de Creuzfeldt-Jakob (MJC), suspectées d'être liée à la maladie de la vache folle.Là-aussi, le nouveau variant de la MJC a présenté la même durée d'incubation chez les souris que celui de la maladie de la vache folle, provoquant dans le cerveau le même type de dommages (cerveau qui devient poreux et prend la forme d'une éponge).

Ces observations font dire aux chercheurs que la maladie humaine et la maladie animale sont "interchangeables" et que la barrière entre espèce ne joue plus aucun rôle protecteur. Par ailleurs, d'après eux, il est impossible de faire la distinction entre les prions provenant du cerveau humains et ceux prélevés sur des bovins malades. "Le fait que, chez les souris transgéniques, les nouveaux variants de la MJC reproduisent si précisément les propriétés des prions de la maladie de la vache folle constitue un argument de poids en faveur de l'existence d'un lien entre ces deux maladies", écrivent-ils.
Si ce lien avait déjà été évoqué, les résultats présentés ici soulèvent une forte inquiétude de la part des chercheurs : celle qu 'une partie de la population du Royaume-Uni courre un  risque considérable.
Rappelons qu'au Royaume-Uni, plus de 175000 bovins ont été atteints d'encéphalopathie spongiforme bovine (ESB) et 48 personnes ont été touchées par la nouvelle forme de MJC. Un cas a été identifié aussi en Irlande et deux en France (pour 78 cas d'ESB pour les bovins).
Il se révèle urgent de mettre au point des tests plus sensibles que ceux disponibles actuellement pour une meilleure détection du risque encouru par la population humaine.

Cette nouvelle publication (dont les auteurs sont considérés comme les meilleurs spécialistes des maladie à prions, parmi lesquels Stanley  B. Prusiner, prix Nobel de médecine de 1997, les experts Robert Will et James Ironside) vient apporter ici une preuve supplémentaire du franchissement de la barrière des espèces. Ces résultats avaient été présentés oralement fin septembre lors d'une réunion scientifique tenue à Tuebingen (Allemagne), a indiqué Dominique Dormont, président du comité des experts français sur l'ESB et ont été pris en compte dans l'analyse des experts français communiqués à l'Agence française de sécurité sanitaire des aliments (AFSSA) le 30 septembre dernier. Au vu de cet avis, l'AFSSA s'est prononcé contre une levée de l'embargo sur le boeuf britannique, immédiatement suivie par le gouvernement français. Rappelons que la Grande-Bretagne refuse de faire abbatre tout le troupeau lorsqu'un cas d'ESB est décelé.

L'amour sous IRM
Imagerie médicale
Samedi 18 décembre1999

Dans son numéro de ce jour (vol 354, n°9198), la revue médicale britannique The Lancet  rapporte les travaux d'une équipe néerlandaise, véritable première mondiale, qui a observé huit couples faisant l'amour (ou plus exactement leur appareil génital) sous imagerie par résonance magnétique (IRM). Précisons que les volontaires, recrutés par l'intermédiaire d'une émission scientifique télévisée, étaient tous de faible corpulence afin de pouvoir tenir dans le tube de l'appareil d'imagerie médicale. Précisons également qu'outre les huit couples, trois femmes seules ont chacune contribué à l'observation du plaisir féminin solitaire (stimulation du clitoris).

On peut en tirer d'ores et déjà  les enseignements suivants :

  • Masters et Johnson, les deux papes américains de la sexologie, se sont trompés : ils ont affirmé dans les années soixante que l'utérus de la femme augmentait de volume pendant l'acte sexuel. Eh bien c'est faux !
  • Il a été également montré que, lors d'un rapport dans la "position du missionnaire", le pénis tout entier prend la forme d'un boomerang (de sa racine interne à l'extrémité du gland). Il n'est donc pas rectiligne comme l'a décrit Leonard de Vinci dans ses planches anatomiques, ni même en forme de S comme cela a pu être envisagé par d'autres auteurs.
  • Les images obtenues n'ont pas mis en évidence la moindre structure suggérant l'existence chez la femme du fameux "point G"
  • Rien non plus sur l'existence d'un réservoir de fluide indicateur d'une "éjaculation féminine".

Des nerfs bioniques
Médecine-Neurosciences
Jeudi 16 décembre1999

un BIOND.R

Des BIONs (BIOnic Neurons), nerfs bioniques, devaient être testés le mois prochain à l'université de Californie du Sud par une équipe dirigée par le professeur Gerald Loeb. L'objectif est d'éviter l'atrophie des muscles en les stimulant sélectivement, après une attaque cérébrale suivie de paralysie par exemple. Pour cela, des électrodes de deux millimètres de diamètre seront implantées directement dans les muscles et activés par un signal radio externe permettant une intervention plus ciblée.

L'effort français en matière de recherche et développement en baisse, selon le rapport de l'OST
Statistiques/recherche
Mercredi 15 décembre1999

Selon le rapport "Science et technologie - Indicateurs 2000" de l'Observatoire des Sciences et des Techniques (OST) publié le 14 décembre aux Editions Economica, l'effort français de recherche-développement (mesuré en pourcentage du produit intérieur brut) continue de baisser en raison de la diminution constante des dépenses de recherche militaire. Celui-ci est passé de 2,42% du PIB en 1990 à 2,26% en 1997 (c'est à dire au même niveau que celui de 1985).
Cette tendance est observée par ailleurs dans la plupart des pays occidentaux. Pour sa part, la recherche financée par les entreprises suit une courbe en progression. En 1996, 60,4% de la recherche et du développement français est réalisée dans les laboratoires des entreprises, 34% dans les laboratoires publics civils et 5,6% dans les laboratoires militaires.
Doctorants et personnels statuaires mis à part, quelque 330 000 personnes travaillent au sein de l'appareil de recherche français, dont près de 150 000 chercheurs, cadres et ingénieur de recherche. La moitié du personnel total de la recherche (soit 163 000 personnes), et 45% des chercheurs, ingénieurs et cadres (68000 personnes) sont employées dans la recherche en entreprises.
La part mondiale des publications françaises a augmenté : elle est passé de 4,4% en 1986, à 5,2% en 1997, et, dans cette même période, de 14,8% à 15,5% au niveau européen. Notre pays arrive au 3ème rang de la production scientifique  européenne en cette matière, derrière le Royaume-Uni (8,4%) et l'Allemagne (6,6%).
Le dépôt de brevets français enregistre pour sa part une baisse de 20% en 7 ans, passant de 8,5% en 1990, à 6,8% en 1997 (perte de -2,7% par an)
L'Europe et l'Amérique du nord assurent près de 75% de la production scientifique mondiale, 10,8% pour les pays industrialisés d'Asie.
Les pays de l'Union européenne dépassent la part des USA (33,5%, contre 32,6%). La production scientifiques du Japon représente pour sa part 8,5% de la production  scientifique mondiale.

Dix professions pour demain
Futurologie
Mardi 14 décembre1999

Le monde du travail change rapidement : le travailleur de demain exercera certainement cinq ou six professions différentes au cours de sa vie.
Des experts de l'institut américain Word Future Society  listent dix professions assurées d'après eux d'avoir un avenir brillant au cours du prochain quart de siècle :

  • technicien en intelligence artificielle

  • technicien en médecine bionique

  • "linguiste" informatique

  • ingénieur informatique

  • ingénieur en cryogénie

  • technicien en fibre optique

  • consultant en image

  • courtier en information

  • consultant en loisir

  • conseiller en retraite.

    A méditer...

La photothèque du CNRS bientôt accessible sur le web
Diffusion d'images scientifique
Lundi 13 décembre1999

Le Centre National de la Recherche Scientifique (CNRS) va, d'ici la fin de l'année, rendre accessible sa banque d'images sur le net (http://www.cnrs.fr/phototheque).
Les images disponibles illustrent les travaux de recherche effectués dans les laboratoires du Centre (images d'appareils, de résultats, de chercheurs en action...) dans les domaines de la physique, chimie, physique nucléaire, mathématiques, sciences pour l'ingénieur, sciences de l'Univers, sciences de la vie et sciences de l'homme et de la société. Grâce à la mise en ligne, il sera possible de rechercher et de consulter les images du fonds de la photothèque, avec leur documentation associée. Une seconde version de ce produit va permettre, à la mi-2000, au moyen de formulaires et de droits d'accès adaptés, de déposer ou de commander des images directement en ligne.
L'interface de consultation a été réalisé grâce au logiciel WebValley, qui permet l'accès à la banque d'images pour tout internaute qui peut effectuer ses recherches soit en texte intégral, soit par critères (thèmes ou mots-clés), avec assistance à l'interrogation par affichage des listes des termes correspondants. La visualisation des résultats de recherche se fait soit sous forme de mosaïque, soit de liste, soit par fiche avec la possibilité d'obtenir une image plein écran.

A consulter également  sur le web : le serveur SERIMEDIS (http://www.serimedis.tm.fr/)
serveur d'images scientifiques qui propose les fonds photographique de :

  • l'Institut National de la Santé et de la Recherche Médicale (14000 photographies, 2000 séquences d'images de biologie cellulaire filmées au microscope),
  • l'Institut Pasteur (plus de 8000 images),
  • l'Institut de Recherche pour le Développement, avec une collection d'images de la zone tropicale : Afrique, Amérique latine, Asie et Océanie (plus de 6 000 clichés sur des thèmes variés : agriculture, arts de la rue, chercheurs sur le terrain, environnement, ethnologie, flore, fonds marins, génétique des plantes, géographie, géologie, hydrologie, maladies tropicales, nutrition, océanographie, pédologie, sociologie, urbanisation ...
  • l'Assistance Publique Hôpitaux de Paris (plus de 200 000 clichés et 400 vidéos,
  • le Musée d'histoire de la médecine -Université Denis Diderot (grande majorité des instruments de chirurgie, représentative de l'art opératoire du XVIIe jusqu'au XXe siècle, trousses de médecins, instruments de physiologie, gravures et lithographies, autographes, ex-libris...).

    Ce serveur propose également le service BEE (Biologie sur Encyclopédie Electronique, base de données terminologique qui recense, définit et illustre les termes utilisés en biologie cellulaire et moléculaire (noms, qualificatifs, sigles, abréviations, expressions...). Ces termes se rapportent aux concepts fondamentaux et mécanismes essentiels de l'organisation et la vie de la cellule, leur intégration dans les processus physiologiques, ainsi qu'aux principales techniques de biologie moléculaire. Ils sont issus de domaines aussi variés que la biochimie, la biologie moléculaire, la chimie, la génétique moléculaire, l'immunologie, la physiologie, la virologie, ....

Succès pour le premier vol commercial d'Ariane 5
Lanceur spatial
Samedi 11 décembre1999

décollage d'Ariane 5
Ariane 5 sur son pas de tir,
9 secondes avant le décollage
        Le premier vol commercial de la fusée Ariane 5 a été couronné de succès, vendredi 10 décembre, avec un décollage parfait à 15h32 (heure de Paris) depuis le centre spatial guyanais, puis à l'issue d'un vol parfait de 29 minutes qui l'a menée à 2350 km d'altitude, a largué son passager, le satellite scientifique XMM. Celui-ci, le plus gros jamais construit en Europe (4 tonnes) est un télescope spatial qui scrutera l'univers afin d'y détecter les sources de rayons X, témoins de l'origine des galaxies. Son concepteur, l'Agence Spatiale Européenne (ESA) a déboursé 957 millions de francs pour sa mise en orbite.
"En mettant en service ce nouveau lanceur, nous sommes en avance sur tous nos concurrents", souligne Jean-Marie Luton, président de l'Agence.

Ariane 5 est le seul lanceur commercial disponible sur le marché, hormis la navette américaine, qui puisse mettre à bord un satellite aussi gros. D'une longueur de 13 mètres, pour un poids total de 3,9 tonnes et un diamètre de 4,5 mètres, XMM va permettre d'étudier les objets les plus chauds (température de quelques millions de degrés) et les plus lointains de l'univers, essentiellement les sources de rayons X, créés dans les étoiles dans la phase où elles explosent. La particularité du télescope réside dans la très grande taille de ses miroirs, leur capacité à collecter beaucoup de photons, ce qui permet de faire de la spectroscopie. Ainsi, on va pouvoir obtenir la signature de tous les matériaux qui sont réellement éjectés par les étoiles.           Le satellite XMM, photographié par lui-même dans l'espace
Le satellite XMM,
photographié par lui-même dans l'espace

Le satellite a été injecté sur une orbite elliptique de 827 km de périgée pour un apogée de 113 946 km. Il faudra six orbites complètes, soit 12 jours, pour qu'il atteigne son orbite définitive. Les premières données scientifiques seront recueillies à partir du 4 janvier 2000.

Ce succès d'Ariane 5 , premier des vols commercial de cette fusée, montre que l'Europe dispose aujourd'hui d'un outil puissant et fiable pouvant être mis au service d'un marché en pleine expansion. Le prochain tir de ce nouveau lanceur est programmé pour fin février/début mars, avec un total de 6 tirs l'an prochain. A terme, la fusée européenne doit encore améliorer ses performances et doubler ses capacités en emportant des charges de 12 tonnes en 2005.
Il s'agit là d'une évolution indispensable si les Européens veulent se maintenir dans le peloton de tête : Arianespace occupe aujourd'hui plus de la moitié du marché des lancements commerciaux, qui porte sur une trentaine de satellites par an. Derrière-elle vient le constructeur américain Lockheed-Martin, associé aux Russes au sein d'International Launch Service, avec 20 à 25% du marché (exploitant les fusée Atlas à partir des Etats-Unis, et les Proton russes, lancés depuis Baïkonour. En 3ème position vient l'américain Boeing-McDonnell-Douglas (fusées Delta), avec près de 10% du marché. Enfin, les Chinois, avec la fusée Longue-Marche tentent une percée en cassant les prix. Cela-dit, leurs fusées souffrent encore de maladies de jeunesses, mais personne ne doute qu'à terme, ils seront de véritables concurrents, tout comme les Japonais, voire les Indiens. Pour les 10 ans à venir, le principal danger vient d'outre-Atlantique, avec le programme Evolved Expendable Launch Vehicule. Dans ce cadre, deux nouvelles générations de lanceurs sont en cours de réalisation chez Boeing et Lockeed-Martin, qui offriront des gammes complètes et visent d'importantes baisses de coût.

Une nanopince de quelque millionièmes de millimètre réalisée par des chercheurs américains
Nanotechnologies
Vendredi 10 décembre1999

Selon une étude parue le 10 décembre dans la revue Science (voir référence en fin de texte), les deux chercheurs américains Philip Kim (de Harvard) et Charles M. Lieber (de Berkeley) viennent de mettre au point la plus petite pince du monde. D'une dimension de quelque millionième de millimètre, cette nanopince a été élaborée en attachant deux nanotubes de carbone de chaque côté d'une microscope tige de verre. Une impulsion électrique provoque l'ouverture ou la fermeture de la pince, qui a servi avec succès à manipuler des objets de quelques nanomètres. Chaque "bras" mesure 4 microns (millièmes de millimètre) et 0,005 micron de diamètre. Les nanotubes de carbone étant conducteurs, cette nanopince peut également servir à tester les propriétés électriques des éléments qu'ils saisissent.

  • Science, 10 décembre 1999, volume 286 n°5447, pages 2148-2150: "Nanotube Nanotweezers", par Philip Kim et Charles M. Lieber.
    A savoir : Le site web de Science propose après inscription (cliquer dans l'option "Register free") un accès gratuit à "Science online".

Si les microscopes électroniques sont d'usage courant pour sonder les molécules une à une, il n'existait jusqu'à ce jour aucun outil assez petit pour pouvoir saisir des objets de cette taille. Les plus petites pinces fabriquées jusqu'ici, faites de tungstène ou de silicone, mesurent 200 microns de long et 2,5 de large pour la première, et 30 microns et 0,25 de large pour la seconde, taille trop grande pour les nano-objets. Cette nouvelle réalisation vient compléter la gamme des outils microscopiques qui permettront sûrement un jour de fabriquer des machines à l'échelle moléculaire. 

Maintien de l'embargo français sur le boeuf britannique : une affirmation du principe de précaution
Santé publique
Jeudi 9 décembre1999

S'appuyant sur l'avis de l'Agence française de sécurité sanitaire des aliments (AFSSA) relatif à la viande bovine britannique rendu le 6 décembre dernier, le gouvernement français a décidé de maintenir l'embargo sur le boeuf britannique.
Dans un communiqué du jeudi 9 décembre, le gouvernement précise notamment que "par cet avis, l'AFFSA confirme que les mesures nouvelles obtenues lors des discussions menées ces dernières semaines avec les autorités britanniques et la Commission européenne permettent de mieux maîriser les risques liés aux modes d'alimentation des animaux ou la transmission de l'ESB* par voie maternelle. Toutefois, l'Agence relève la persistance d'éléments de risques plausibles, même s'ils sont non quantifiables, en indiquant notamment que d'autres hypothèses de contamination ne peuvent être écartés. Elle souligne également l'absence d'effet immédiat de certaines des mesures envisagées. Elle insiste enfin sur la nécessité de prendre en compte l'évolution rapide des connaissances scientifiques et épidémiologiques".(...) " Le gouvernement est animé par le souci prioritaire de la santé publique et de la sécurité des consommateurs."

* Encéphalite Spongiforme Bovine

A consulter : programme français de recherche sur les encéphalopathies spongiformes subaiguës transmissibles (ESST) et les prions


L'affaire de la "vache folle" met en oeuvre le risque comme expérience de la responsabilité au plus haut niveau.
L'exécutif européen va lancer des poursuites contre la France ; le principe de précaution fait partie des grands principes du droit européen : un débat qui risque d'être pationnant.
Les poursuites prendront du temps, pendant lequel les scientifiques tenteront encore de progresser dans la connaissance de la maladie de la vache folle et de sa transmission.

Une immense bibliothèque électronique d'articles scientifiques prévue pour le premier trimestre 2000
Edition scientifique et internet
Mercredi 8 décembre1999

Douze des plus grands éditeurs scientifiques mondiaux* (représentant plus de 85% de l'édition scientifique mondiale) ont prévu d'offrir, à partir du premier trismestre 2000, l'interopérabilité de leurs bibliothèques électroniques de périodiques respectives. Objectif : mettre à disposition de l'internaute (moyennant argent) une immense bibliothèque électronique d'articles scientifiques, dans laquelle il pourra surfer à volonté.
Cette décision découle d'une idée simple : les articles scientifiques font, au travers de nombreuses citations, référence à d'autres articles. Dès lors, l'interopérabilité permettra au lecteur d'un article consulté en ligne d'accéder directement, par simple clic, à l'article cité quel que soit le périodique dont il est issu et quel que soit l'éditeur qui l'a publié.
Si cette idée est simple, sa concrétisation opérationnelle est complexe. D'une part parce que devra être constitué, à partir des notices bibliographiques des articles, un vaste référentiel commun (3 millions de liens au lancement de l'application au premier trimestre 2000 et 500 000 liens ajoutés ensuite annuellement) à tous les éditeurs présents dans ce consortium. D'autre part, parce que chaque éditeur restera maître de sa politique marketing (accès au texte des articles en "pay per view" ou exigence préalable d'un abonnement, accès à un résumé bibliographique ou au texte intégral, tarifs différents, etc.). Pour faciliter cet aspect de validation et de suivi des accès et des transactions, l'ensemble des éditeurs adopteront le système d'identifiant électronique de la Digital Object Identifier Foundation. Les aspets opérationnels du serveur (gestion du serveur de lien, suivi des transactions et "chambre de compensation" entre éditeurs) seront délégués à une entité à but non-lucratif gérée de façon paritaire. 

* Academic Press ; American Association for the Advancement of Science (éditeur de la revue Science) ; American Insitute of Physics ; Association for Computer Machinery ; Blackwell Science ; Elesvier science ; The Institute of Electrical and Electronics Engineers ; Kuwer Academic Publishing ; Nature ; Oxford University Press ; Springer Verlag et John Wiley & Sons.

Ceci va certainement modifier les rapports de force dans ce secteur et accélérer le développement du commerce électronique "croisé" dans le domaine de l'édition professionnelle. Face à la pression concurrentielle de plus en plus vive de nouveaux éditeurs Internet, l'heure est à la coopération entre grands éditeurs pour défendre leurs positions... et leurs modèles économiques... Après avoir joué chacun pour soi en matière de bibliothèque électronique, l'heure de la coopération arrivée : concurrencés à la fois par une nouvelle génération d'édition scientifique sur internet qui vise explicitement à casser l'économie malthusienne des grandes revues scientifiques (où les auteurs doivent payer, souvent cher, pour être publiés) et, sur le segment de la distribution, par des intermédiaires (agences d'abonnement) qui ont commencé de créer des bibliothèques électroniques "multi-éditeurs", les éditeurs n'avaient plus le choix que de s'allier pour faire front.
Sachant que les 12 éditeurs ayant conclu l'accord d'interopérabilité de leur bibliothèque présentent 85% du chiffre d'affaires de l'édition scientifique mondiale, on peut s'attendre à ce que les autres éditeurs rejoigne cette initiative, sous peine d'être exclu de cette nouvelle circulation de l'information scientifique et technique.
Que font les éditeurs français en cette matière ?

Le chromosome 22 (presque) entièrement séquencé
Génétique
Jeudi 2 décembre1999

séquençage du chromosome 22
légende et image agrandie
©Nature

            La quasi-totalité du chromosome 22 humain vient d'être séquencé par un Consortium international (article paru dans la Revue Nature du 2 décembre - voir référence en fin de texte). Ce travail  effectué par une équipe groupant 217 chercheurs  (équipes américaine, canadienne, japonaise et suédoise) provient d'un Consortium coordonné par le centre Sanger, en Grande-Bretagne. Il montre que les techniques actuelles permettent effectivement de venir à bout de très longues séquences. Ce sont en effet 33,4 mégabases, représentant 97% du chormosome 22 qui sont ici publiées, avec un taux d'erreur certainement inférieur à une base sur 50000.
A l'issue de ce travail, deux démarches peuvent désormais être entreprises : caractériser, d'une part, les gènes et leurs fonctions et rechercher, d'autre part, les gènes spécifiquement impliqués dans des affections que l'on sait lié à ce chromosome 22 (syndrome de Di George, ataxie spinocérébelleuse de type 10...).

  • Nature du 18  novembre, Nature n°402, page 489 à 495 : "The DNA sequence of human chromosome 22" (travail résultant de la collaboration de de 217 chercheurs).
     téléchargement au format Pdf 

    En ces temps de concurrence avec le privé, la publication de ces séquences montre que le secteur "a but non lucratif", convenablement organisé, peut parfaitement devancer toute tentative visant d'une manière ou d'une autre l'appropriation des gènes : tout au long du projet, les séquences du chromosome 22 ont été rendues disponibles sur Internet et dans les banques de données publiques, au fur et à mesure de leur obtention et sans attendre d'avoir la séquence complète.
    Relativisons ce travail : la technique de séquençage est au point (on avait déjà pu le vérifier sur d'autres génomes eucaryotes), mais on est encore loin du séquençage total du génome humain. Le chromosome 22 est le deuxième plus petit des autosomes humains. Il ne représente que 1,6 à 1,8% de notre ADN (soit près de 1000 gènes estimés -545 étant cici identifiés de façon certaine-  sur les quelque 60 000 à 100000 gènes  (le chiffre exact n'est pas connu) que porte chaque être humain.
    Rappelons que 16 institutions du Royaume-Uni, France, France, Allemagne, Japon, Chine et Etats-Unis composent le consortium public international du projet Génome Humain. Le travail de décryptage se réparti de la façon suivante : les Etats-Unis emporte 55% de la tâche à réaliser, le Royaume-Uni 33% (avec les chromosomes 1, 6, 9, 10, 13, 20 plus une participation à la lecture du chromosome 22 et chromosome sexuel X -le chromosome Y mâle revenant aux Américains, Japon: 5%, France: 3% avec le chromosome 14, Allemagne : 2,5% et Chine : 1%. Une collaboration germano-japonaise prend en charge le chromosome 21, impliqué dans le mongolisme.


    Information rajoutée le lundi 6 décembre 1999 :
    "GenHomme" : un réseau de recherche et d'innovation technologique sur le génome humain

    A la suite de la visite de Lionel Jospin, au génopole d’Evry, Claude Allègre, ministre de l’Education nationale, de la recherche et de la technologie et Christian Sautter, ministre de l’Economie, des finances et de l’industrie présentent le réseau de recherche et d’innovation technologique sur le génome humain : " GenHomme ".
    Inscrit dans le programme génomique annoncé à l’occasion du deuxième Comité interministériel sur la recherche scientifique et technique de 1999, ce réseau est créé pour coordonner les travaux des laboratoires publics, des associations caritatives et des industriels, afin d’accélérer la valorisation des connaissances de la génomique humaine.
    Principaux objectif : favoriser la création de sociétés " start up " ; mettre en place des plates-formes technologiques ou de compétence, nécessaires à la réalisation de projets, telles qu’une encyclopédie informatique ; prendre en charge la formation de spécialistes susceptibles d’analyser le texte de la séquence pour détecter les gènes.

Six nouvelles planètes découvertes autour d'étoiles
Astronomie
Mercredi 1er décembre 1999

L'observatoire Keck à Hawaï
L'obersvatoire Keck d'Hawaï
©Andrew Perala
La NASA vient d'annoncer la découverte de six nouvelles planètes gravitant autour d'étoiles, ce qui porte à 32 le nombre connu de planètes hors du système solaire (celles-ci ayant toutes été découvertes dans les cinq dernières années).
Ces six nouveaux astres ont été détectés depuis  l'observatoire Keck I de Hawaï grâce au mouvement qu'ils font subir à leur soleil en passant près de lui.
Ces planètes tournent autour d'une étoile similaire en âge, en taille et en luminosité à notre soleil. Par ailleurs, "Cinq d'entre elles sont situées dans la "zone habitable" de leurs soleils, c'est-à-dire ni trop près ni trop loin, ce qui suppose un climat qui permettrait d'avoir de l'eau sous forme liquide", précise Steven Vogt, concepteur de l'instrument (spectromètre HIRES) qui a permis la découverte. Selon lui, elles sont juste à la bonne distance, avec au moins dans un cas, une température de l'ordre de 44° C.

Situées à des distance variant de 65 à 192 années-lumières de notre Terre, elles ont des orbites elliptiques, suggérant que les orbites circulaires telles que nous les voyons dans notre système solaire sont finalement relativement rares. Leurs masses sont pour certaines un peu moindre que celle de Jupiter et, pour d'autres, plusieurs fois supérieures. Selon Steven Vogt, elles sont probablement composées de gaz (hélium et hydrogène).

La découverte des astronomes  (Steven Vogt, université de Californie/Santa Cruz ; Geoffrey Marcy, université de Californie/Berkeley ; Paul Butler, Carnegie Institution ; Kevin Apps, université de Sussex en Angleterre) s'inscrit dans le cadre d'un projet à long terme, soutenu par la National Science Foundation et la NASA, avec pour objectif la localisation de quelque 500 étoiles proches pouvant recéler des planètes en orbite autour d'elles.

Ajout du 16 décembre 1999
Des astronomes britanniques ont procédé à la première observation directe d'une planète en orbite dans un autre système solaire,  qu'ils ont baptisée "planète du Millénaire". Ce travail, rapporté dans la revue scientifique Nature du 16 décembre, montre que cette planète probablement composée d'hydrogène et de magnésium possède 8 fois la masse de Jupiter, son diamètre étant 1,8 fois plus grand. Sa température au sol est d'environ 1100 degrés.

Ceci porte à 32 le nombre de planètes connues hors de notre système solaire

Ajout du 5 avril 2000
Trois astronomes américains Geoffrey Marcy (université de Berkeley, en Californie), Paul Butler (Insitution Carnegie de Washington) et Steve Vogt (université de Santa Cruz, en Californie) ont détecté, pour la première fois, deux planètes extrasolaires d'une masse inférieure à celle de Saturne, sur le puissant télescope Keck D'Hawaï.
L'une, compagnon de HD16141 -étoile située à 117 années-lumières de la constellation de la Baleine- représente 72% de la masse de Saturne ;
l'autre, qui représente 83% de la masse de Saturne, est le compagnon de HD46375 -étoile située à 109 années-lumières dans la Licorne.

Ceci porte à 34 le nombre de planètes connues hors de notre système solaire. Notons que jusqu'à présent, les "exoplanètes" découvertes avaient généralement une masse équivalente, voire bien supérieure) à celle de Jupiter. Ce saut qualitatif en annonce d'autres. Avec l'envoi d'une flotille de satellites d'ici à 2010, liée à des techniques de détection toujours plus performantes, il sera possible de voir des planètes de masse analogue à celle de la Terre.

Dernière heure : la NASA vient d'annoncer que la toute première planète extrasolaire a avoir été observée serait en fait une étoile (encore en discussion) : Ceci porterait à 33 le nombre de planètes connues hors de notre système solaire.

Ajout du 24 août 2000
Cela n'arrête pas : aujourd'hui, on en serait à quelques 48 planètes découvertes (dont 10 ces dernières semaines) en dehors de notre système solaire...

Pour en savoir plus sur le sujet

Consulter le site : Encyclopédie des planètes extrasolaires
http://www.obspm.fr/encycl/f-encycl.html

http://www.admiroutes.asso.fr/action/theme/science/actu/1999/1999dece.htm
Droits de diffusion