Actualité scientifique

Avril 2000

retour accueil "actualité scientifique"
Par Christophe Jacquemin

Premier succès pour la thérapie Génique
Médecine/thérapie génique
Vendredii 28 avril 2000

Grâce à un traitement génétique mis au point par des français, deux bébés atteints d'une maladie héréditaire gravissime (déficit immunitaire combiné sévère lié au chromosomeX ou "SCID-X") ont pu être soignés, de façon durable. Rapportés aujourd'hui dans la revue Science (voir référence en fin de texte), ce succès est le fruit d'un travail coordonné par l'immunologiste Alain Fischer et par la biologiste Marina Cavazzana-Calvo, groupant plusieurs équipes françaises et soutenu par l'Institut national de la santé et de la recherche médicale, l'Assistance publique et l'Association française contre les myopathies.
Les deux bébés, traités à l'âge de huit mois pour l'un et 11 mois pour l'autre (jouissant depuis respectivement 13 et 12 mois d'un système immunitaire normal) sont rentrés chez eux sans aucun traitement.
A ce jour, cinq enfants présentant  cette maladie génétique ont été traités à l'hôpital Necker : deux d'entre eux font l'objet de l'article de Science, deux autres sembleraient  pour l'instant tirés d'affaire (mais le recul n'est pas  vraiment suffisant pour se prononcer), un cinquième présenterait une situation beaucoup plus incertaine.
Il faut cependant rester prudent sur ces résultats car rien ne permet aujourd'hui d'affirmer l'effet bénéfique définitif de cette thérapie.

Science du 28 avril 2000, Volume 288, N° 546 , pages 669 à 672 : Gene Therapy of Human Severe Combined Immunodeficiency (SCID)-X1 Disease, par Marina Cavazzana-Calvo, Salima Hacein-Bey, Geneviève de Saint Basile, Fabian Gross, Eric Yvon, Patrick Nusbaum, Françoise Selz, Christophe Hue, Stéphanie Certain, Jean-Laurent Casanova, Philippe Bousso, Françoise Le Deist et Alain Fischer
  • NB : L'accession à l'abstract de cet article n'est possible qu'après inscription à l'accès gratuit "Science online" (cliquer ensuite dans l'option "Register free").

Lire aussi à ce sujet la chronique du 28 décembre 1999 :
Thérapie génique sur quatre bébés : une première mondiale, française, pour des résultats qui semblent prometteurs

Nouvelle ère de l'électronique plastique
Electronique
Mercredi 26 avril 2000

Selon des travaux à paraître demain dans Nature (voir références en fin de texte), Denis Fichou, chercheur au CNRS, en collaboration avec une équipe de chercheurs hollandais, propose une nouvelle interprétation des propriétés de transport des semi-conducteurs organiques utilisés pour la fabrication de transistors, composants de base de la micro-électronique moderne.
Depuis plusieurs années, les laboratoires mènent des recherches afin de substituer les semi-conducteurs organiques aux semi-conducteurs minéraux tels que le silicium, car les premiers peuvent être déposés sous forme de films minces selon des techniques peu coûteuses et sur des supports flexibles.

Monocristal de sexithiophène (6T) © CNRS-LMM/Denis Fichou
Monoscrital de
sexithiophène (6T)
CNRS -LMM
/Denis Fichou
Le pentacène (5A) et le sexithiophène (6T) sont les deux semi-conducteurs organiques les plus utilisés à ce jour. Il s'agit de deux molécules conjuguées, dont le mode d'assemblage dans l'état solide conduit à des matériaux très ordonnés pouvant aller jusqu'au monocristal. Les excellentes propriétés de transport de ces molécules s'expliquent par le haut degré de cristallinité des films minces de ces deux composés semi-conducteurs.
Dans leur articles, les chercheurs décrivent la fabrication de transistors organiques monocristallins à base de 5A et de 6T et proposent une nouvelle interprétation des propriétés de transport (sur la base du "modèle de blocage de Coulomb").

Pour les spécialistes

Un film mince polycristallin de 5A ou 6T est déposé sous vide sur un substrat (silicium/oxyde de silicium) sur lequel deux électrodes d'or (source et drain) distantes de 2 à 20 microns  (1 micron = 1/10000 de cm) ont été préparées au préalable par lithographie. Dans des conditions de dépôt optimisées, la taille des micro-cristaux constitutifs du film est supérieure à la distance source-drain, ce qui permet de disposer de transistors " monocristallins ".

Ces transistors sont ensuite caractérisés par les techniques usuelles (courbes courant-tension). Les résultats montrent que dans les monocristaux de 5A et de 6T, le transport des charges est activé thermiquement, l'énergie d'activation dépendant de la nature chimique du composé utilisé (5A ou 6T) et de la densité de porteurs de charges.
On sait par ailleurs que le phénomène de blocage de Coulomb  - par lequel l'interaction coulombienne entre les électrons peut empêcher leur transport dans un circuit - s'observe dans des systèmes dans lesquels la résistance tunnel (RT) entre sites voisins est grande (h/e2) et l'énergie de charge EC sur un site est plus grande que kT (unité thermique).

NB: (EC = e 2/2C)
C : capacitance du site (impédance qui oppose au passage d'un courant alternatif une portion de circuit comportant plusieurs condensateurs) ; e: charge de l'électron ; k: constante de Boltzmann ; h: constante de Planck


On peut considérer qu'un monocristal organique est constitué d'un réseau de sites moléculaires séparés par des résistances tunnel. De plus, en raison de la taille extrêmement réduite des molécules (de l'ordre du nanomètre -milliardième de mètre), les capacitances (grandeur estimée d'une molécule) sont très petites (10-19 Farad) et le transport est déjà dominé par l'énergie de charge à température ambiante.

Les observations expérimentales de transport activé thermiquement peuvent donc s'interpréter avec le modèle de blocage de Coulomb dans un régime orthodoxe pour lequel la résistance tunnel entre les sites est plus grande que la résistance quantique.

Nature du 27 avril 2000, n° 404, page 977 à 980: "Coulomb blockade transport in single-crystal organic thin-film transistors", par W.A Schoonveld, J.Wildman, D.Fichou, P.A Bobbert, B.J Van Wees et T.M Klapwijk.
NB : Les résumés succincts en anglais, voire des articles complets parus sur le site web de Nature peuvent être obtenus, après inscription gratuite (attention, pour que l'inscription aboutisse, il faut absolument cocher sur quelque chose à la rubrique State/Region:* du questionnaire, même si ce n'est pas adapté à votre pays).

Une belle avancée pour la micro-électronique. Dans un avenir proche, la fabrication de tels transistors doit permettre des applications nouvelles pour l'électronique nomade ou les supports plats. Intégrés sur des supports souples, ces transistors organiques devraient donner rapidement lieu à des dispositifs qui seront eux-mêmes flexibles, tels que des écrans plats ou des badges électroniques. Attendons-nous, dans un proche avenir, à un fort développement des applications dans le domaine de l'électronique "plastique".  Pour la petite histoire, le premier transistor organique à avoir vu le jour est français : il a été mis au point en 1987 par le laboratoire des matériaux moléculaires du CNRS.

Faire pousser des plantes virtuelles en fonction de la lumière reçue par chaque feuille
Informatique
Mardi 25 avril 2000

INRIA
© INRIA-INédit
Dans le cadre de l'action coordonnée "Soleil", les chercheurs de l'Institut de Recherche en Informatique et Automatique (INRIA), et du Centre de coopération internationale en recherche agronomique pour le développement (Cirad), ont mis au point un logiciel permettant de simuler la croissance d'une plante sur une dizaine d'années et à définir la forme qu'elle prendra selon qu'il existe ou non une contrainte pour l'accès à la lumière.

Comprendre  en effet comment croît une plante fournit de précieux renseignements sur la meilleure manière d'exploiter les trop rares terres agricoles des régions tropicales.
Si un premier logiciel "Amap"  conçu par Philippe de Reffye du Cirad était déjà capable de simuler la croissance des plantes selon l'intensité lumineuse, l'apport en eau et en minéraux., cet outil considérait que chaque feuille recevait la même quantité d'énergie lumineuse. Or, rien de tel n'est observé dans la nature : il existe des jeux d'ombres et de lumières produits par la superposition des feuilles et par la présence d'arbres ou de bâtiments à proximité. Or, c'est la quantité de lumière utilisable pour la photosynthèse qui conditionne la matière végétale.
Partant de ce constat, les chercheurs ont fait appel aux compétences de François Sillion et de Cyril Soler, deux chercheurs de l'INRIA Rhône-Alpes, spécialistes des éclairement complexes travaillant sur le projet iMAGIS, qui vise à recréer, en virtuel, l'ambiance lumineuse produite par des éclairages indirects en simulant les échanges radiatifs entre objets éclairés. A cette fin ils ont mis  au point le logiciel Bright , fondé sur une méthode de radiosité, qui pouvait tout à fait servir à évaluer la quantité de lumière reçue par chaque feuille séparément compte tenu des interactions avec ses voisines.
Dès lors, les chercheurs du Cirad et de l'INRIA ont donc couplé les deux logiciels, Amap et Bright, résolvant au passage des difficultés supplémentaires : la transparence des feuilles et leur rayonnement variable selon les longueurs d'onde, les superpositions faisant écran à la lumière et la mobilité de la source lumineuse.

Aujourd'hui, les chercheurs arrivent à simuler la croissance de la plante sur une dizaine d'années : à cette étape, la plante est encore petite mais comporte déjà plusieurs milliers de feuilles. François Sillon compte néanmoins admirer prochainement sur son écran une plante de plusieurs dizaines d'années.

Brouillage des émissions satellites : consternation à l'US Air Force
Débrouille
Vendredi 21 avril 2000

Selon la revue britannique New Scientist paraissant demain 22 avril, une équipe de l'US Air Force travaillant sur la détection des failles de sécurité des systèmes de transmission par satellites a fait une drôle de découverte. A titre de test, Tim Marceau (chef de l'équipe) a chargé deux de ses ingénieurs novices de construire un engin de brouillage "maison", uniquement en utilisant  internet et tout ce qu'on peut acheter en liquide.Un jeu d'enfant : il a tout d'abord suffit aux deux jeunes scientifiques de taper (en anglais) le mot clé  "brouillage des communications satellites" pour récolter quantité d'informations. Ensuite, pour 7500 dollars (soit 52 500F au cours actuel du billet vert), ils ont réussi à  fabriquer un appareil à ultra haute fréquences, générateur d'un bruit électronique capable de brouiller des antennes satellites et des récepteur militaires.

Un résultat alarmant, c'est le moins qu'on puisse dire....

Marquage du pétrole à l'ADN : une technique des plus utile en cas de marée noire ou de dégazage sauvage
Environnement
Jeudi 20 avril 2000

Première mondiale : du pétrole marqué à l'ADN voyage cette semaine en mer du Nord. Une technique qui permet non seulement de vérifier que le brut délivré à l'arrivée n'a pas été contrefait, mais aussi, en cas de marée noire, de révéler l'origine de la moindre flaque.
"Notre technique est infalsifiable et inviolable", a expliqué Paul Roquette  (directeur du développement de la filiale française du groupe britannique Cypher Science) à l'Agence France Presse. "Si chaque cargaison était marquée, nous saurions d'où proviennent les nappes et nous connaîtrions les auteurs des dégazages en mer, avec un coût de seulement un ou deux francs par tonne".
Le marquage consiste à déposer dans le produit d'infimes quantités d'ADN de synthèse, chaque molécule de cet ADN étant fabriquée à partir d'une combinaison de ses quatre protéines de base (adénosine, cytosine, guanine, thymine), un peu comme une clé chiffrée. Avec ce système, le nombre de possibilités est infini. Les molécules sont fixées à des microsphères de quelques microns de diamètre (millionième de mètre), 100 000 microsphères par millilitre de produit étant nécessaires (ce qui prend en fait peu de place) : pour une cargaison de pétrole, quelques litres de solution diluée suffisent.
Dès lors, pour identifier le produit, il suffit de prélever un échantillon, de repérer les microsphères au microscope électronique et d'analyser l'ADN qui leur est attaché. Pour cela, il est impératif de disposer de la clé de décodage, c'est à dire de la molécule d'ADN complémentaire, baptisée "amorce". Sans elle, impossible de décoder ni même de repérer l'ADN. L'analyse prend de l'ordre de 24 heures.
Cypher Science a proposé à l'Organisation maritime internationale de marquer chaque cargaison de brut pour mettre fin aux marées noires anonymes. Contrairement à des marqueurs chimiques, le code ADN peut chiffrer un tas d'informations, comme par exemple le nom de l'affréteur, le numéro de la cargaison...

Outre les applications au pétrole, ce système est aussi utilisé aujourd'hui dans les parfums. Grâce au nombre infini de molécules-code possibles, certains grands groupes font marquer individuellement chaque flacon (les microsphère sont en fait injectées dans l'encre du carton d'emballage). C'est ainsi que sont découvertes chaque semaine des contrefaçons.
Autres domaines d'applicaton : la pharmacologie (marquage des emballages des médicaments), l'industrie du diamant, industrie alimentaire (semences), le marquage des oeuvres d'art...

Pourquoi n'y avait-on pas pensé plus tôt ? Signalons que certaines firmes britanniques envisagent même, avec ce système, de marquer les être humains, par exemple lors de l'utilisation des bombes auto-défense. Exposés à ces vaporisations, un agresseur se trouverait marqué par des microsphères imprégnant ses sourcils ou ses cheveux.

Première apparition d'une présentatrice virtuelle d'informations sur Internet
Réalité virtuelle/agents intelligents
Mercredi 19 avril 2000

Ananova, première présentatrice virtuelle © http://www.ananova.com 19 avril 2000 : gardez bien cette date en mémoire car ceci nous paraîtra bientôt si naturel dans notre vie de tous les jours que nous ne saurons plus lorsque cela a commencé, ni même si finalement cela n'a pas toujours existé. Voici Ananova, première présentatrice sur internet (http://www.ananova.com), séduisante créature en trois dimensions générée en temps réel, sachant nous dire (en anglais) les dépêches avec le ton qui convient. Une créature virtuellement humaine.

Cette petite prouesse (la transformation automatique de texte en parole) s'appuie sur des travaux réalisés par la firme belge Lernout & Hauspie, l'un des principaux spécialistes en matière de reconnaissance de la parole et de la synthèse vocale. Prouesse, car après avoir obtenu la qualité de voix désirée, coordonnée avec l'attitude physique et le mouvement des lèvres, il fallait pouvoir doter cette créature de gestes, d'expressions et d'"émotions" programmables instantanément en fonction de la nature des informations.

Future Claire Chazal ? La mine toujours reposée, capable de travailler sans fatigue vingt-quatre heures sur vingt-quatre. Blague à part, de telles créatures vont bientôt envahir (via le net) nos écrans (ordinateurs, téléphones portables...).. Un avant-goût de nos futurs interfaces de communication avec des agents intelligents, capables de reconnaître notre voix et de nous renseigner à la demande.

De l'ADN au service de robots microscopiques

Nanotechonologies/Robotique/médecine
Mardi 18 avril 2000
Selon les travaux d'IBM (Zurich) et des chercheurs de l'université de Bâle publiés dans le magazine Science du 14 avril dernier (voir références en fin de texte), il est possible de faire exécuter par de l'ADN un travail habituellement attribuée à des mini-machines (pile, moteur). L'objectif  : créer une nouvelle génération de robots microscopiques pour l'appliquer aux diagnostics, aux traitements médicaux, à la lecture de gènes...
Cette nouvelle technique biomédicale, par exemple,  permettrait  l'injection de microcapsules équipées de nano-valves à l'ADN pour lutter contre une tumeur. L'ADN servirait de "levier" aux nano-valves (minuscules doigts en silicone d'une épaisseur cinquante fois moindre que celle d'un cheveu) pour libérer la juste dose de chimie à l'endroit désirée.

De quoi s'agit-il ?

Ensemble de "doigts" vue en microscopie électronique  © IBM
Les bras (ou "doigts") en silicone
(longueur 500 microns, largeur 100 microns)
 vus au microscope électronique à balayage © IBM

Mesure de la déflection des bras
La déflection des "bras", mesurée par faisceau laser,
est de l'ordre de 10 à 20 nanomètres.

Grâce à un  procédé appelé "reconnaissance moléculaire" (sorte de blocage par clé), un ensemble de "doigts" en silicone d'une épaisseur d'un micron (milliardième de mètre) ont la faculté d'attirer du code ADN et des protéines spécifiques (chaque doigt étant préalablement recouvert sur une face de biomolécules spécifiques). En observant la façon dont les différents doigts se courbent lorsque l'ADN adhère à ces bras, les chercheurs peuvent détecter le plus petit défaut dans une séquence ADN. En d'autres termes, on transforme une reconnaissance biochimique en un minuscule mouvement nanométrique.
"La possibilité d'utiliser la biologie pour accomplir des tâches spécifiques à l'échelle nanométrique en utilisant du silicone ouvre une approche complètement nouvelle dans le  fonctionnement autonome de mécanismes, c'est-à-dire sans besoin d'un apport d'énergie ou de la nécessité d'un contrôle par ordinateur. Nous avons trouvé le moyen d'obtenir de l'ADN qu'il fasse cela pour nous. Plus besoin de piles ou de moteurs pour rendre des minimachines opérationnelles", explique James Gimzewski du laboratoire de recherche d'IBM, co-auteur de l'article

A terme, des robots microscopiques à l'intérieur de notre corps, au service de la bonne thérapie, à la bonne place et au bon moment, en minimisant effets secondaires et chirurgie invasive ?

Science du 14 avril 2000 (articles recherche), Volume 288, N° 5464 I, pages 316 à 318 : "Translating Biomolecular Recognition into Nanomechanics", par Jürgen Fritz, Marko Baller, Hans Peter Lang, Hugo Rothuizen, Peter Vettiger, Ernst Meyer et Hans-Joachim Güntherodt, Christoph Gerber et James K. Gimzewski
  • NB : L'accession à l'abstract de cet article n'est possible qu'après inscription à l'accès gratuit "Science online" (cliquer ensuite dans l'option "Register free").

Des chercheurs de l'INRIA cassent l'une des plus sûres clés de cryptage
Cryptage informatique
lundi 17 avril 2000

Avec l'aide de près de 10000 internautes, des chercheurs de l'Institut national de recherche en informatique et en automatique (INRIA) ont réussi à casser une des clés de cryptage estimée comme la plus sûre au monde, destinée à équiper les futures générations de téléphones mobiles et autres appareils sans fils..
Robert Harley et ses collègues Damien Doligez, Daniel de Rauglaudre et Xavier Leroy, ont répondu présent au défi lancé en 1997 par Certicom (entreprise canadienne de cryptographie), proposant 10000 dollars américains à qui décoderait le premier une clé de 109 bits basé sur le système dit des "courbes elliptiques", considéré comme le  nec-plus-ultra de la cryptographie.
Pour arriver à leur fin , les quatre chercheurs se sont appuyés sur près de 10000 ordinateurs fournis par quelque 1300 internautes issus d'une quarantaine de pays. Les deux tiers environ du calcul  -qui ont duré quatre mois- ont été réalisés sur des stations de travail Unix et un tiers sur des PC avec Windows.

Le projet, dénommé ECDL, a été organisé en équipes. Celles-ci ont utilisé un logiciel libre écrit par Robert Harley pour calculer plus de deux millions de milliards de points sur une courbe particulière (dénommée "courbe de Koblitz" par l'entreprise Certicom). Parmi ces points, les équipes se sont attachées à découvrir des points "distingués"  (éléments de solution), envoyés ensuite à un serveur de l'INRIA, où un site Web a permis de suivre en direct la progression du calcul. Après avoir récolté deux millions de points distingués, une phase finale de calcul a enfin permis d'extraire la solution.

Pour les chercheurs de l'INRIA, ce type d' expérimentation est très important car il permet de confirmer par l'expérience l'évaluation théorique de la sécurité d'un système cryptographique.
C'est en testant à grande échelle sa résistance aux attaques que l'on contribue à améliorer sa sécurité. Si le résultat obtenu ici démontre le niveau élevé de sécurité permis par cette méthode de cryptographie, il met aussi en évidence la relative fragilité de certaines courbes elliptiques ayant des propriétés particulières, confirmant que pour avoir une sécurité optimale il faut choisir des courbes quelconques, sans caractéristiques spéciales.
Notons qu'un tel calcul, effectué sur un micro-ordinateur doté d'un processeur à 450 MHz, aurait duré la bagatelle de 500 années !  
Quoi qu'il en soit, la clé a bel et bien été cassée. Dès lors, assurer la pleine sécurité d'une clé de cryptage est-il réaliste ? L'avenir en cette matière se trouve certainement du côté de la cryptographie quantique.

Perception de la parole chez le nouveau-né et le singe :
de curieuses similitudes mais aussi des différences
Linguistique
Vendredi 14 avril 2000
Selon des travaux français (Laboratoire de sciences cognitives et psycholinguistique du CNRS) et américains (Département de psychologie de l'université d'Harvard), publiés dans l'hebdomadaire Science du 14 avril 2000 (références en fin de texte), certains aspects de la perception de la parole chez l'homme ont évolué à partir des propriétés du système auditif ancestral des primates.

A la différence des autres espèces animales, l'homme possède une aptitude spécifique d'acquisition du langage et de la grammaire. Toute la question est de savoir dans quelle mesure cette capacité est innée.
Les linguistes et les psychologues savent déjà que les nourrissons de quatre jours, grâce à leurs remarquables capacités perceptives, peuvent distinguer un grand nombre de contrastes phonétiques, comme les phonèmes ba ou pa. Ils sont également capables de distinguer différentes langues, si elles ont des structures rythmiques très différentes : les chercheurs du Laboratoire de sciences cognitives et psycholinguistique du CNRS viennent ainsi de montrer que les nouveau-nés français distinguent des phrases néerlandaises de phrases japonaises.
L'expérience s'est déroulée selon le principe de l'habituation : des bébés sont familiarisés à des phrases de l'une des langues, puis la langue change. Leurs réactions à cette modification sont mesurées par l'intermédiaire du degré de succion d'une tétine. Ces résultats sont ensuite comparés à ceux d'un autre groupe d'enfants, qui n'entend qu'un changement de voix dans la même langue. Dans le cas où quatre personnes, deux japonaises et deux néerlandaises, parlent, les enfants sont incapables de faire la distinction entre les deux langues. "Cette expérience expose les bébés à une grande variabilité d'orateurs", indiquent les auteurs. Or, nous savons déjà que cela affecte leur capacité de discrimination. En revanche, les nourrissons peuvent reconnaître le Japonais du Néerlandais si une voix synthétique est utilisée. De manière plus surprenante, les bébés n'arrivent plus à différencier les deux langues lorsque les phrases sont jouées à l'envers. "Ces observations suggèrent que leurs capacités perceptives dépendent de propriétés de la parole qui disparaissent lorsque les phrases sont dites à l'envers", expliquent les auteurs.

Pour tenter d'appréhender l'origine et l'évolution de cette aptitude, et c'est ici toute l'originalité de cette étude, des chercheurs américains du laboratoire de psychologie de l'université de Harvard ont réitéré les mêmes expériences sur des singes tamarins (Saguinus oedipus), en utilisant la même méthode d'habituation et les mêmes phrases. Dans ce cas, les réactions des singes ne sont plus mesurées par leur succion mais par l'orientation de leur regard vers le haut-parleur qui distille les voix. Résultats, pour le moins inattendus: les tamarins sont non seulement capables de distinguer le Japonais du Néerlandais mais éprouvent les mêmes difficultés que les nourrissons lorsque la parole est jouée à l'envers. A contrario, la variabilité des orateurs n'affecte en rien leur perception.

Les résultats de cette étude mettent donc en évidence des similarités  frappantes entre les systèmes auditifs humain et simiens, mais aussi des différences non négligeables. Les tamarins, comme les nouveau-nés peuvent traiter les syllabes isolées comme la parole continue de laquelle ils extraient assez d'informations pour distinguer deux langues. Selon les auteurs, le fait que ceci se déroule sans influence de la variabilité des orateurs montre bien que ces informations font partie d'invariants linguistiques. Cependant, rien n'indique que les nouveau-nés et les singes distinguent les langues en utilisant les mêmes indices. Il semble que les premiers soient plus sensibles aux propriétés rythmiques de la parole, alors que les seconds s'attacheraient plus à ses propriétés phonétiques. Dès lors, les différences entre les singes et les nouveaux-nés ne se situent probablement pas au niveau de leur capacité à traiter des signaux acoustiques, mais à un niveau de traitement plus abstrait.

Science du 14 avril 2000 (articles recherche), Volume 288, N° 5464 I, pages 349 à 351 : "Language Discrimination by Human Newborns and by Cotton-Top Tamarin Monkeys", par Franck Ramus,Marc D. Hauser,Cory Miller,Dylan Morris et Jacques Mehler
  • NB : L'accession à l'abstract de cet article n'est possible qu'après inscription à l'accès gratuit "Science online" (cliquer ensuite dans l'option "Register free").

Rapport sur les études doctorales 1999
Thèses
Jeudi 13 avril 2000

10 582 thèses soutenues en 1998 et 66 237 étudiants inscrits en thèse en 1999

Selon le Rapport sur les études doctorales 1999 effectué par la direction de la Recherche du ministère de la Recherche, 10 582 thèses ont été soutenues en 1998, ce qui correspond à une diminution de 4,5% par rapport à 1997. Les thèses en sciences dures sont la plus touchées avec une baisse de 5%. Cependant, depuis 1993, le nombre de soutenance a progressé de 14 points, en moyenne.

Le poids de l'Ile-de-France est en hausse et représente 37,1% des soutenances de thèses. Vient ensuite la région Rhône-Alpes, qui compte 11,6% des soutenances, mais a perdu 1,2 points par rapport à 1997, puis la région PACA avec 6,6% des soutenances et la région Midi-Pyrénées avec 6,2%. La proportion des soutenances est de 4,5% pour la région Languedoc-Roussillon, de 4,1% pour l'Aquitaine, 4% pour l'Alsace ainsi que pour la Lorraine, 3,5% pour la Bretagne et 3,2% pour le Nord-Pas-de-Calais. Cette carte de France recouvre celle des DEA : la moitié des régions concentre 89,6% des diplômés de DEA et 88,5% des soutenances de thèses.

Durée de la thèse et effectifs
La durée moyenne des thèses est de 4,04 années en 1998, tandis que la valeur médiane de la durée des thèses est de 3,4 ans.
Elle est de 2,7 ans en Chimie et sciences des matériaux, 2,8 en Sciences de la terre et de l'univers, de 2,9 ans en Physique et sciences pour l'ingénieur.
Pour les Mathématiques et l'informatique la valeur médiane de la durée des thèses est de 3,3 ans, pour la Biologie, médecine et santé de 3,4 ans, pour les Sciences de la société de 4,2 ans et pour les Sciences de l'homme et des humanités de 4,5 ans. De plus, l'âge médian des doctorants lors de la soutenance est évaluée à 29,3 ans.

Le nombre d'étudiants préparant une thèse en 1999 est de 66 239 contre 66 932 en 1998.
Les Sciences de la société en représentent 28,9%, les Sciences de l'homme et des humanités 31,4%, la Physique et les sciences pour l'ingénieur 14%, la Biologie, médecine et santé 12,8%, les Mathématiques et l'informatique 5,4%, la Chimie et les sciences des matériaux 4,9% et les Sciences de la terre et de l'univers 2,4%. Parmi les étudiants inscrits en thèses, le rapport dénombre 16 008 premières inscriptions en thèses en 1999, soit un repli de 3,6% par rapport à 1998.

Selon le rapport, on compte16 718 doctorants étrangers, soit 25,2% de la population doctorante (-1,4 points par rapport à 1998). Le nombre de doctorants originaires de l'Union européenne  (UE) a augmenté pour atteindre, en 1999, la proportion de 5,2% des doctorants, alors que ceux extérieurs à l'UE diminue pour représenter 20,1% des doctorants
Le rapport prévoit un flux d'environ 9 700 docteurs à l'horizon 2002-2003, soit une chute de 8% du nombre annuel des soutenances de thèse.

24% de docteurs étrangers et 40% de femmes
De la même façon, la proportion de docteurs étrangers s'est réduite pour atteindre, en 1998, 24,8%, soit 2622 docteurs (-0,6 points). Depuis 1992, on est passé d'un étranger sur trois docteurs à un étranger sur quatre.
L'Afrique du Nord représente 30% des docteurs étrangers, et l'Union européenne ainsi que l'Afrique noire 14%. 9,3% des docteurs étrangers sont originaires du Proche et du Moyen Orient, 9,3% d'Asie et 7,4% d'Europe centrale et orientale. L'Amérique latine, l'Amérique du Nord et l'Australie-Pacifique représentent respectivement 9,7%, 1,8% et 0,2% des docteurs étrangers.
Le rapport note également que le taux de retour des étrangers dans leur pays d'origine est de 28,6%. Ce taux est inférieur à celui de 1996 qui était jusqu'à présent le plus faible de la décennie avec 35,3%.

En 1998, les femmes représentent 40,3% des docteurs, dont 53,7% en biologie, médecine et santé, 50,4% en sciences de l'homme et des humanités et 47,2% en chimie et sciences des matériaux. Ce taux a globalement progressé de 8% en sept ans. Mais cette progression ne se constate ni en mathématiques et informatique où le taux de féminisation passe de 22,9% en 1997 à 19,5% en 1998, ni en chimie et sciences de matériaux (47,2% en 1998 contre 49,3% en 1997).

Taux d'abandon et financements
Selon le rapport, le taux d'abandon en cours de thèse avoisine 40%. Pour les mathématiques et l'informatique, et la biologie, médecine et santé, il est de 20%, 15% pour la physique et les sciences pour l'ingénieur, les sciences de la terre et de l'univers et la chimie et les sciences des matériaux, et 55% pour les sciences de l'homme et des humanités et les sciences de la société.

Les docteurs de 1998 ont été financés à hauteur de 73,4%, soit une baisse de 0,62 point par rapport à l'année précédente. Les allocations de recherche représentent 37,4% des thèses financées dont près d'un tiers en physique et sciences pour l'ingénieur et près d'un quart en biologie, médecine et santé, les thèses financées par une allocation de recherche en sciences de l'homme et des humanités et les sciences de la société représentent 14,7%. Les bourses CIFRE (Convention industrielle de formation pour la recherche) représentent 5,8% des sources de financement des thèses, dont 45% en physique et en sciences pour l'ingénieur.

Les organismes de recherche  financent 11% des thèses financées, dont 41% en physique et sciences pour l'ingénieur. 10% des financements des thèses proviennent des associations et des entreprises portant en priorité sur la biologie, médecine et santé (36%) et la physique et les sciences pour l'ingénieur et (26,8%). Les financements des ministères et des collectivités représentent 7% des ressources, et les bourses d'écoles 2%.
Près de 11% des thèses financées le sont par des fonds pour doctorants étrangers. Les salaires représentent près de 14% des ressources, surtout pour les thèses en sciences de l'homme et des humanités (34%), en science de la société (21%) et en biologie, médecine et santé (19%).

En sciences de la terre et de l'univers, 94,2% des thèses soutenues en 1998 sont financées. En physique et sciences pour l'ingénieur la proportion est de 90,4%, en chimie et sciences des matériaux et en biologie, médecine et santé, elle est de 86,9% et de 86,2%.
En mathématiques et informatique 85,04% des thèses sont financées. En revanche, le taux de financement des thèses est de 46,7% en sciences de la société et de 39,8% en sciences de l'homme et des humanités.
Le rapport précise que près d'un inscrit sur deux (49,5%) en doctorat pour la première fois à la rentrée 1998 a trouvé un financement, résultat correspond à une progression de 2 points par rapport à la rentrée universitaire de 1997.

Le devenir des docteurs de 1997 et 1998
23,7% des docteurs de 1997 étaient en séjours post-doctoraux en 1998, soit 6 mois après leur soutenance, contre 21,1% en 1999, soit 18 mois après leur soutenance. Cette proportion atteint 26,2% pour les docteurs en 1998, situation constatée 6 mois après leur soutenance. 14,5% des docteurs de 1997 étaient ATER (Attaché temporaire d'enseignement et de recherche) en 1998. Ils étaient 5,5% un an plus tard. Pour les docteurs de 1998, cette proportion est de 12,4%.

Les embauches en entreprise concernent 18,2% des docteurs de 1997 six mois après leur soutenance et 25,1% d'entre eux 18 mois après cette soutenance. De plus, en 1999, 20,6% des docteurs de 1998 sont en entreprise. L'enseignement supérieur (hors ATER) embauchaient ,en 1998, 11,2% des docteurs de 1997 et en 1999, 19%. Pour les docteurs de 1998, cette proportion est à 9,3%. Quant à l'enseignement secondaire, il concerne autour de 6% des docteurs de 1997 en 1998 et 1999 et des docteurs de 1998. Cet ordre de grandeur est le même pour les embauches dans l'administration.

6% des docteurs de 1998 travaillent, six mois après leur soutenance, dans des organismes de recherche, contre 7,8% un an après, proportion concernant 5,8% des docteurs de 1998. Les emplois précaires touchent, en 1998, 1,4% des docteurs de 1997 et 2,9% d'entre eux en 1999. Cette proportion est de 3,1% pour les docteurs de 1998. 12,3% des docteurs de 1997 sont au chômage six mois après avoir soutenu leur thèse. Ils ne sont plus que 5,1% un an plus tard. Cette situation d'absence d'emploi touche 9,7% des docteurs de 1998.

Helios, avion à hélices, sans pilote, capable de rester plusieurs mois dans les airs
Technologie aéronautique
Mercredi 12 avril 2000
Prototype de l'avion Helios © Nasa
Prototype d'Helios © Nasa
  82 mètres d'envergure (plus qu'un Boeing 747) pour un poids de 900 kg : voici Helios, futur avion à hélices américain sans pilote, capable de voler à une altitude record et de rester plusieurs mois dans les airs
"La NASA table sur une autonomie de 96 heures de vol d'ici 2003 et espère que l'appareil pourra rester à terme six mois d'affilée dans les airs", annonce John Del Frate, scientifique travaillant sur le projet.
L'avion est alimenté par 66000 cellules solaires le jour et utilisera la nuit un nouveau système de stockage d'énergie, faisant notamment appel à des piles à combustible.

Un prototype a déjà effectué ses premiers vols de jour, atteignant une altitude de 24 380 mètres, soit le record mondial pour un avion à hélices. L'objectif, à terme, est d'atteindre plus de 30000 mètres.

Bon d'accord, mais à quoi ça sert ? Selon les experts, les vols de très longue durée vont ouvrir de nombreuses perspectives, en particulier dans le domaine des télécomunications. Plusieurs de ces avions pourraient être basés au-dessus de grandes villes, fournissant chacun l'équivalent d'environ 2000 lignes internet à grande vitesse dans un périmètre d'environ 65 km. Avec cette méthode, le coût par bit envoyé (unité d'information) devrait être 20 fois plus faible que celui atteint avec un dispositif de satellite en orbite. Ce type d'avion pourrait par ailleurs être d'un grand secours dans les cas de catastrophes naturelles (tremblements de terre par exemple) en permettant de remplacer rapidement les lignes de télécommunications endommagées. Le coût de cette petite merveille ? "Pour l'instant, quelques millions de dollars" déclare Timothy Conver, président d'AeroVironment (entreprise qui participe à la construction du prototype) "mais ce coût devrait baisser à mesure que les techniques vont progresser, en particulier dans le domaine des cellules solaires".

Développement des énergies alternatives et mise au point de nouvelles technologies prévus au CEA
Nucléaire
Mardi 11 avril 2000

Dans un entretien au Monde daté du 12 avril, Pascal Colombani (administrateur général du Commissariat à l'Energie Atomique, depuis janvier dernier) dévoile ses projets : "Nous allons élaborer un plan stratégique où seront redéfinies les grandes orientations du CEA", explique ce scientifique. "Nous avons besoin de nous ouvrir, d'écouter ce que dit la société et surtout de tenir compte du seuil d'acceptabilité du nucléaire par la population. Nous devons nous interroger sur les objectifs de l'organisme".
Outre la notion d'acceptabilité, cette évolution de l'organisme public de recherche intégrera aussi celle de compétitivité. En effet, alors que le marché européen de l'électricité, et bientôt celui du gaz, est ouvert à la concurrence, "nous nous acheminons vers un paysage plus éclaté de la production d'énergie électrique. Le nucléaire aura toujours sa place, mais c'en est fini avec le tout nucléaire, comme en son temps, du tout pétrole. Les industriels recherchent les énergies les plus compétitives", affirme Pascal Colombani. Ainsi, le CEA entend-il porter ses efforts sur "la recherche d'un kWh produit le moins cher possible". Dans ce contexte "le nucléaire a toujours de l'avenir", avenir qui passe notamment par l'intensification des recherches sur "un réacteur innovant et propre".

Interrogé au sujet de la gestion des déchets radioactifs, l'administrateur général se dit "favorable à une solution préconisée par la loi Bataille de 1991, consistant à l'entreposage des déchets en surface et subsurface dans des entrepôts très légérement enterrés" (...), voie très prometteuse : vous retraitez les déchets, vous les stockez et vous y avez de nouveau accès si vous voulez les retraiter en fonction des progrès technologiques", rapporte Le Monde dans cet entretien.

"Si le nucléaire reste l'activité structurante du CEA, celui-ci a reçu pour mission, lors du Comité internministériel de la Recherche scientifique et technologique du 1er juin 1999 d'augmenter son effort de recherche sur les énergies alternatives", explique par ailleurs Pascal Colombani. "Nous avons déjà une petite activité dans le solaire que nous allons renforcer et surtout, nous allons nous focaliser sur la piste à combustible (...). Le CEA prévoit de tripler son investissement dans ce secteur".
Le quotidien explique également qu'il s'agit également de "donner une place croissante aux nouvelles technologies, dont les crédits pourraient passer du quart au tiers du budget total, en trois ans". Pascal Colombani affirme que le CEA "qui a su transformer la science en puissance nucléaire et en indépendance énergétique doit maintenant participer à la nouvelle économie.
Pour cela, il fixe trois priorités :

  • La microélectronique, qui évolue des composants vers les systèmes ;
  • Les nanotechnologies:
  • Les biotechnologies, et notamment les biopuces (ou le CEA selon l'administrateur général,  pourrait jouer le rôle de leader.

L'administrateur souhaite également "ouvrir" davantage le CEA vers l'extérieur. "Des projets de collaboration sont en cours avec d'autres organismes de recherche, sous forme de Groupement d'intérêt public (GIP). Dans ce cadre, un GIP est en voie de constitution avec le CNRS, dans le domaine de la physique nucléaire, un autre est à l'étude avec l'INSERM" (Institut national de la santé et de la recherche médicale).

Une activité qui s'est diversifiée
Les programmes de recherche destinés à la défense n'absorbent plus que 40% du budget du CEA. Si, dans le secteur civil (60%), son activité reste dominée par le nucléaire, l'organisme s'est aussi diversifié dans des domaines comme la conception de composants électroniques, l'élaboration de nouveaux matériaux, l'enseignement univesitaire, le conseil aux entreprises, l'essaimage (scientifiques du CEA créant leur propre entreprise)...

Les moyens
Doté d'un budget de 18,5 milliards de francs en 1999, le CEA emploie 16221 salariés, dont 46,5% sont des cadres, ingénieurs et chercheurs.
L'organisme possède 1549 brevets (au 1er janvier 1999, dont 208 déposés en 1998  et a signé plus de nombreux contrats avec l'industrie (1353 contrats au 31/12/1998).
83 entreprises ont été créées par essaimage, entraînant un millier emplois directs (bilan à fin 1998). .

Dans un entretien donnné aux Echos, le 11 avril 2000, Pascal Colombani entend également renforcer la politique de brevets du Commissariat et capitaliser son expérience "pour se placer au croisement de la microélectronique et de la biologie, l'un des secteurs les plus prometteurs dans le monde de la santé".

Concernant cet organisme (le CEA est un Etablissement public à caractère industriel et commercial (EPIC), on pourra relire l'encadré "Le CEA en progrès" (chronique du 19 janvier 2000 : "Etablissements publics à caractère scientifique et technologique : une autonomie budgétaire largement fictive, selon la Cour des Comptes").

Union européenne : règlementation de l'étiquetage des produits alimentaires contenant au moins 1% d'OGM
Alimentation
Lundi 10 avril 2000
Deux règlements (n°49-2000 et 50-2000) adoptés le 10 janvier dernier par la Commission européenne entrent en vigeur ce 10 avril 2000.
  • Le premier met fin à l'exclusion des additifs et des arômes utilisés dans les produits alimentaires.
    Des milliers de produits alimentaires, notamment ceux contenant un additif couramment utilisé -la lécithine de soja- qui d'ailleurs peut être produite à partir de soja génétiquement modifié provenant des Etats-Unis ou de l'Argentine, échappaient jusqu'à présent à tout étiquetage.
  • Le second modifie le texte n°139-98 adopté le 26 mai 1998, qui régit spécifiquement l'étiquetage des produits obtenus à partir de maïs ou de soja génétiquement modifiés.
    Ce texte initial définissait le critère générateur de l'étiquetage en spécifiant qu'il doit s'agir d'un "produit contenant des OGM" . Se sont ainsi trouvés soumis à une obligation d'étiquetage spécifique les produits qui contiennent des protéines ou de l'ADN résultant d'une modification génétique.
    Les modalités de l'étiquetage ont ainsi été précisées : si l'aliment comporte une liste d'ingrédients, la mention "produit à partir de soja (ou maïs) génétiquement modifié" doit apparaître dans la liste, à la suite de l'ingrédient concerné. Si il n'y a pas de liste d'ingrédients, la même mention doit également apparaître dans l'étiquetage du produit.Le règlement initial permettait enfin d'apposer la mention "Sans OGM" sur les produits qui n'en contiennent pas. Mais il est apparu que la production de produits totalement sans OGM était, en très difficile à garantir, compte tenu des nombreuses possibilités de contamination accidentelle (lors du transport, du stockage...).
    Ce dispositif a donc été complété le 10 janvier 2000 par l'instauration d'un seuil de tolérance fixé à 1%, seuil de pureté qui prévaut dans les échanges internationaux de matières premières. Les produits alimentaires ne contenant pas plus de 1% d'OGM échappent donc à l'obligation d'étiquetage : ils ne pourrant pas pour autant bénéficier du label "Sans OGM".

Contrôle : des techniques validées encore inexistantes

Bien que plus précise et contraignante que les principes posés sur le plan international dans le cadre du protocole de Montréal de janvier dernier, la réglementation européenne entrant en vigueur ce 10 avril 2000 voit cependant son efficacité subordonnée à la mise en place de procédures de contrôle s'appuyant sur des techniques validées et normalisées, ce qui n'est pas encore le cas (nb : la direction générale de la concurrence, de la consommation et de la répression des fraudes (DGCCRF), qui a en charge le contrôle de la véracité des allégations portées sur les étiquettes par les industriels, ne possède encore ni les équipements ni les personnels nécessaires).
Selon Jean André Bouchand, directeur du bureau des laboratoires de la DGRCCRF) (magazine RIA -Avril 2000, n°601), le bureau travaille depuis 1997 sur la détection des OGM, un travail qui se traduit par la participation à la mise au point de méthodes d'analyse dans le cadre d'un réseau public auquel participe notamment l'INRA, à des programmes européens de recherche, ainsi qu'à la normalisation des méthodes de recherche analytique dans le cadre de l'Afnor et du CEN. "Une première norme  expérimentale est en cours de mise à l'enquête publique".

Technique utilisée
La technique s'avérant  actuellement la plus adéquate, basée sur la PCR (Polymerase Chain Reaction), consiste à extraire des séquences d'ADN du produit concerné et à les "amplifier" pour détecter d'éventuelles séquences d'ADN caractéristiques des OGM. L'utilisation de cette technique connaît cependant deux limites :

  • nécesssité d'analyser un échantillon représentatif du produit,
  • nécessité de connaître les séquences d'ADN de tous les OGM utilisés sur le marché (or la multiplication des OGM risque de rendre la méthode inefficace dans un avenir plus que proche).


Dans un domaine comme celui-ci, où les réglementations évoluent, les choix techniques sont essentiels. Choix des séquences, longueurs de brins, échantillonnage: beaucoup de paramètres conditionnent la sensibilité et le seuil de détection. Selon Jean André Bouchand, les techniques actuelles donnent déjà de bons résultats, y compris sur des produits élaborés comme des huiles ou des gâteaux apéritifs.
Concernant les kits enzymatiques, qui permettent de détecter la présence de la protéine issue de l'expression des gènes recombinés, la sensibilité est limitée. Cet usage est donc restreint aux produits non transformés (ils pourraient toutefois être un moyen de tri rapide et peu onéreux).

Le lecteur pourra aussi, avec avantage, se reporter aux chroniques suivantes :


Synthèse d'un nouvel antibiotique, version artificielle de la magaïnine
Médecine
Vendredi 7 avril 2000

Une équipe de chercheurs américains de l'université du Wiscousin vient d'annoncer avoir synthétisé une nouvelle molécule aux priorités anti-bactériennes puissantes.
Publiés dans la revue Nature datée du 6 avril 2000 (voir références en fin de texte), les travaux ont consisté à développer une version artificielle de la magaïnine, petite protéine appartenant à une classe d'antibiotiques naturels, produits par de nombreux organismes. La molécule synthétisée résiste à la digestion par l'estomac et se trouve active contre des souches de bactéries résistantes à d'autres antibiotiques (comme par exemple les souches d'entérocoques, qui résistent à la vancomycine, et les souches de staphylocoques, résistants à laméthicilline). Selon Samuel Gellman, qui a dirigé les travaux, le composé artificiel serait encore moins dommageable pour les globules rouges que sa version naturelle.

Nature du 6 avril 2000, n°404, vol 6778, page 565: "Antibiotics: Non-haemolytic béta-amino-acid oligomers", par Emilie A. Porter, Xifang Wang, Hee-Seung Lee, Bernard Weiblum et Samuel H. Gellman.
NB : Les résumés succincts en anglais, voire des articles complets parus sur le site web de Nature peuvent être obtenus, après inscription gratuite (attention, pour que l'inscription aboutisse, il faut absolument cocher sur quelque chose à la rubrique State/Region:* du questionnaire, même si ce n'est pas adapté à votre pays).

Par ses puissantes propriétés anti-bactériennes, cette molécule semble être un bon candidat pour combattre les infections résistantes aux traitements actuellement disponibles.
   

Résistance aux antibiotiques : un problème des plus préoccupant

Découvertes par Alexandre Fleming, en 1928, les antibiotiques sont les médicaments les plus largement prescrits dans le monde. Leur utilisation massive, chez les humains comme chez les animaux, devient très préoccupante. Les bactéries résistent de mieux en mieux aux antibiotiques au fil des années, diminuant d'autant leur efficacité, d'où l'intérêt du développement de nouvelles molécules pour remédier à cet état de fait.
Rappelons que la résistance bactérienne est aujourd'hui classées au rang de priorité nationale par le Comité technique des infections nocosomiales (infections acquises à l'hôpital) : plus de 40% des staphyloques dorés résistent à plusieurs antibiotiques. En ville, chez les enfants, 50% des infections ORL à pneumocoques résistent ou sont peu sensibles à la pénicilline (le pourcentage était de moitié en 1996). Escherichia coli, responsable d'infections urinaires, résiste dans 50% des cas chez les femmes qui ont pris des antibiotiques au cours des mois précédents...
N'étant généralement pas métabolisés par les organismes, les antibiotiques sont rejetés dans l'environnement, tuant les bactéries peu résistantes, sélectionnant ainsi les plus fortes, donc les plus dangereuses. Signalons que quatre chercheurs du département de chimie de la Wayne State University de Detroit auraient récemment mis au point deux nouvelles sortes d'antibiotiques : le premier, s'autodétruit lorsqu'il est exposé au soleil ; le second se régénère après la mise en présence d'une bactérie résistante. Lorsque le microbe lui ajoute un groupement chimique censé le neutraliser, le médicament devient instable et se débarrasse naturellement des éléments importuns, reprenant ensuite sa forme initiale. Selon leurs concepteurs, ces antibiotiques  (non encore testés sur l'animal ou sur l'homme) ouvrent des pistes prometteuses dans l'élaboration de nouveaux agents anti-infectieux. .

Sciences de la planète et de l'environnement  : les recommandations du CCSPE
Politique scientifique
Jeudi 6 avril 2000
Instance placée auprès du ministère chargé de la Recherche et de la Technologie, le Comité de Coordination des Sciences de la Planète et de l'Environnement (CCSPE) se consacre depuis avril 1999 à l'examen du dispositif de recherche national dans les domaines thématiques correspondant aux actions prioritaires proposées par ce ministère. Ces actions, entérinées par le Comité interministériel de la recherche Scientifique et technique et le Conseil national de la science, concernent six grands domaines :
  • l'eau et l'environnement,
  • l'écologie quantitative,
  • les risques et la prévention des catastrophes naturelles,
  • l'observation de la Terre,
  • l'étude du système Terre,
  • l'étude des enveloppes fluides et du climat.

Dans leur plus grande majorité, ces actions ont été engagées sous la forme de programmes nationaux interorganismes. S'appuyant sur des documents  rédigés en cette matière (bilan de ces actions, analyse de l'ensemble des recherches menées, recensement des scientifiques et techniciens concernés dans les différents organismes) le Comité a émis ses recommandations*.

Eau et Environnement
La recherche interorganismes sur l'eau s'organise autour de deux programmes nationaux, le Programme National de Recherche en Hydrologie (PNRH) et le Programme National sur les Sols et l'Erosion (PNSE) créés pour structurer la communauté et développer des recherches sur le thème de l'eau et des sols.
La recherche s'appuie également sur des programmes plus ciblés ,comme par exemple le Programme National de Recherche sur les Zones Humides (PNRZH) financé par le  ministère de l'Aménagement du territoire et de l'Environnement (MATE )ou le programme Mercure en Guyane. Pour compléter le dispositif, le ministère chargé de la Recherche a proposé la création d'un réseau de recherche et d'innovation technologique (R2IT) " Eau et environnement ".

Dans ce cadre, le Comité recommande d'assurer la cohérence d'ensemble et la lisibilité du dispositif à partir des actions déjà engagées par les organismes et des actions nouvelles mises en oeuvre par le ministère (actions financées par le Fonds National de la Science et le Fonds de la Recherche Technologique)
Dans le domaine de la recherche, ceci implique une nouvelle définition des axes prioritaires des programmes nationaux au sein du nouveau dispositif, qui pourrait conduire à la mise en place d'un programme unique articulé avec le R2IT, et à l'initiation d'actions plus spécifiques. Ces axes prioritaires devraient s'appuyer sur une relation continue "atmosphère-sol-sous sol" et ne pas segmenter les différents compartiments.
Dès lors, quatre nouvelles actions devraient être engagées cette année :

  • le soutien aux actions internationales par la mise en place de chantiers multidisciplinaires dans les pays retenus par le ministère de la Recherche (Inde, Vietnam, Brésil, pays du pourtour méditerranéen, Afrique australe,...), dont la responsabilité serait confiée aux organismes (BRGM, IRD CNRS) ou dans le prolongement d'actions initiées par les organismes (programmes commun systèmes irrigués CIRAD-IRD-CEMAGREF),
  • la mise en place d'un ou deux chantiers de recherche "eaux-usages-milieux" sur les impacts des pratiques et des occupations de l'espace rural, sur les régimes et la qualité des eaux au sein d'une action multidisciplinaire et multiorganismes incluant les sciences humaines et sociales et pilotée par le CEMAGREF et l'INRA,
  • le renforcement des développements méthodologiques dans le domaine de la géophysique conduisant à une meilleure caractérisation de la surface et de la subsurface (sol et sous-sol). Ceci devrait permettre d'attirer de nouvelles équipes et de nouvelles compétences, en particulier dans les domaines de l'électromagnétisme (hyperfréquences, électrosismique et cinétique), de la modélisation des signaux et des processus (méthodes inverses)...,
  • la mise en place d'une action spécifique "interface eau-solide" afin de réunir des chercheurs d'horizons très différents (chimistes, physiciens, biologistes, hydrobiologistes) pour étudier les échanges aux interfaces et modéliser le transfert des polluants dans les sols.

Le Comité poursuivra cette année la réflexion sur les services d'observation et les bases de données dans le domaine de l'eau et réexaminera  l'organisation des actions précédemment conduites dans le cadre du Groupement d'intérêt public "hydrosystèmes" .

Ecologie Quantitative
Prenant en compte le fait que les principaux problèmes d'environnement présentent une dimension écologique (impact des changements climatiques, pollutions, conservation et utilisation durable des ressources biologiques et des services écologiques, développement d'une agriculture durable…), le Comité approuve la mise en place d'une action concertée incitative "Écologie Quantitative" pour développer des travaux sur les équilibres et les déséquilibres des systèmes écologiques complexes et des ensembles de populations en interaction avec la biosphère. Ce devrait  contribuer :

  • à structurer une communauté interdisciplinaire autour de questions scientifiques majeures touchant à la structure, au fonctionnement et à l'évolution des écosystèmes continentaux, mais aussi d'équipements collectifs et de sites expérimentaux,
  • à faire de l'écologie écosystémique une discipline solidement implantée à l'interface des sciences de la vie, des sciences de la terre et de l'atmosphère, tournée vers l'expérimentation et la modélisation,
  • à favoriser l'émergence d'une véritable ingénierie écologique, pertinente dans les problèmes d'aménagement, de restauration des milieux, d'agronomie "propre" et de gestion "durable" des ressources terrestres et aquatiques.

Dans ce cadre, le Comité recommande la mise en place d'un programme national de recherche sur la dynamique de la biosphère continentale mobilisant  le CEA, le CEMAGREF, le CIRAD, le CNRS, l'INRA, l'IRD et les Universités). Parallèlement, plusieurs actions spécifiques pourront être engagées ou poursuivies qui concerneront :

  • la biogéochimie des sols; cette action sera centrée sur l'étude des interfaces des systèmes biologiques-solutions-phases solides-phases gazeuses ainsi que sur le rôle des acteurs microbiens,
  • les interactions mathématiques/écologie autour de la modélisation de systèmes écologiques complexes et de leur évolution,
  • une action interdisciplinaire ciblée sur l'émergence d'une véritable ingénierie écologique, à l'interface des sciences de l'homme et de la nature.

Dans le cadre de ce nouveau dispositif de recherche, le Comité souligne que "le positionnement relatif et l'interface de cette ACI et du Programme National sur les Sols et l'Erosion (PNSE) devront être précisés, notamment pour les aspects concernant la pédologie, la biologie et l'agriculture".

Le CCSPE poursuivra  cette année sa réflexion en concertation avec le Comité de Coordination des Sciences du Vivant notamment dans les domaines de la biodiversité et de l'écotoxicologie, et avec le Conseil pour le développement des sciences humaines et sociales.

Risques et prévention des catastrophes naturelles
Dans ce domaine , le CCSPE a pu procéder à une première analyse du dispositif de recherche, qui le conduit à approuver la mise en place d'une action concertée incitative (qui devrait être définie en concertation entre le directeur de programme nommé par la Direction de la Recherche du ministère et les experts du CCSPE).

Le dispositif actuel de recherche est fondé sur des Programmes Nationaux de Recherche (PNRN et PNRH), ainsi que sur des programmes du MATE (RIO, EPR), complété par un programme SHS (PRCSR) du CNRS. Ce dispositif devrait être renforcé de façon ambitieuse en assurant une cohérence d'ensemble grâce à la reprise au sein de la nouvelle Action concertée incitative (ACI) "Prévention des catastrophes naturelles", des thématiques traitées dans le PNRN et des thématiques risques traitées dans le PNRH (inondations) et le PATOM (tempêtes).

Le Comité recommande, comme élément général d'une politique scientifique sur les risques naturels :

  • des approches distinctes pour les différents aléas naturels (séismes, éruptions volcaniques, inondations, tempêtes, avalanches, feux de forêt, glissements de terrain). Dans ce cadre, il note qu'il n'existe pas véritablement de principes physiques communs à tous ces aléas, ni d'approche "générale" applicable dans tous les cas. L'articulation doit donc se faire entre une structure unique (ACI) permettant de gérer aussi bien des thèmes différents que des projets à la frontière de deux ou plusieurs thèmes (par exemple inondations et tempêtes),
  • des recherches et des actions sur toute la " chaîne " du risque, depuis la physique de l'aléa jusqu'à la vulnérabilité des structures et bâtiments et l'impact/attitude des différents acteurs socio-économiques (dimension sociale). En effet, de nombreuses raisons (cas extrêmes trop rares, environnement non stationnaire sur les longues périodes nécessaires à l'établissement d'une base de données..) rendent l'approche purement statistique de l'aléa non valable. Une nouvelle communauté scientifique doit être identifiée en mobilisant des structures et les ressources nécessaires, au delà de ce qui sera engagé dans l'étude des aléas.
  • le renforcerment du transfert des résultats de recherche vers les utilisateurs opérationnels et de coordonner la collecte des données dans des observatoires et/ou des centres nationaux. Le dispositif actuel pourrait être étendu aux risques hydrométéorologiques. Un des critères principaux de choix serait la mise à disposition des tiers (scientifiques, administrations, compagnies d'assurance,...) des données collectées.

    Concernant l'Action concertée incitative proprement-dite, le Comité recommande de :

  • réaliser l'articulation entre les recherches sur les différents aléas dans la structure unique de l'ACI permettant de gérer aussi bien des thèmes différents que des projets à la frontière de deux ou plusieurs thèmes (par exemple inondations et climat),
  • procéder à un saut quantitatif dans les efforts de recherche sur certains types d'aléas pour lesquels les moyens actuellement mis en oeuvre ne permettent pas d'aborder les questions essentielles (par exemple la structure fine d'une zone de faille en profondeur, les moyens spatiaux d'étude de la déformation lors de glissements et effondrements de terrain, les séismes et éruptions, ...).

Observation de la Terre
L'analyse faite par le CCSPE dans le domaine de l'observation de la Terre solide met en évidence deux situations symétriques de déséquilibre, qui concernent d'une part la recherche et d'autre part l'observation opérationnelle. Ceci devra être pris en compte dans la mise en place des actions proposées par le Ministère chargé de la Recherche, et notamment de celle d'un réseau de recherche et d'innovation technologique "Observation de la Terre et applications spatiales", actuellement en cours de définition.

Dans le domaine de la recherche, et en particulier en géodynamique interne, les travaux réalisés par les équipes françaises se situent au premier plan mondial. La communauté spatiale française dans le domaine de la "Terre solide" a ainsi acquis ces dernières années une importante capacité à proposer des missions nouvelles, comme en témoignent les propositions récentes acceptées par le CNES, l'ESA et la NASA (OERSTED, DEMETER, CHAMP, GRACE et GOCE), mais elle souffre encore d'un déficit de reconnaissance de la part des organismes, alors même qu'elle regroupe aujourd'hui de nombreux laboratoires de recherche au delà des laboratoires spatiaux traditionnels. Afin de permettre un soutien actif de l'ensemble des actions de recherche aussi bien méthodologiques que thématiques, fondées sur l'utilisation des données spatiales pour l'étude du Système Terre (Terre solide, enveloppe fluides et leurs interactions), il "apparaît donc comme impératif que les objectifs du Programme National de Télédétection Spatiale (PNTS) soient redéfinis, ou qu'un dispositif autre soit mis en place, par redéploiement des ressources correspondantes du CNES, de l'INSU et des autres organismes participants, afin de garantir des facilités d'accès aux observations spatiales existantes pour les équipes scientifiques, un soutien aux missions en cours et un soutien à la préparation des missions futures".

Dans le domaine de l'observation opérationnelle, note le Comité, on dispose au contraire d'une abondance de données de capteurs différents, mais les équipes impliquées peinent à développer des applications innovantes. Qu'il s'agisse des risques naturels, de la gestion des ressources en eau, de l'agriculture de précision, ou de la forêt, les études en cours font toutes ressortir un déficit pénalisant de recherche amont sur les processus mis en jeu. Il importe donc d'impliquer un nombre significatif d'équipes dans ces développements méthodologiques (nouveaux capteurs, approche multicapteurs...). "Ceci ne pourra se faire que par la mise en place d'une action incitative, articulée avec la redéfinition des actions recherche recommandée ci-dessus, et se plaçant clairement en amont du R2IT", explique le Comité.

Système Terre et Climat
Une première analyse du dispositif de recherche national dans le domaine de l'étude du système Terre et du climat montre qu'une coordination efficace est d'ores et déjà en place grâce aux programmes nationaux interorganismes coordonnés principalement par l'INSU (Insitut national des sciences de l'univers).
La priorité est donc aujourd'hui de recenser les domaines thématiques nécessitant un effort de redéfinition , d'identifier sur cette base les nouvelles thématiques à développer, et enfin de définir ceux pour lesquels un apport complémentaire de financement s'avère nécessaire. Cet effort , d'après le Comité, doit se placer dans un cadre de concertation étroite entre la Direction de la Recherche  du ministère de la Recherche et les organismes concernés, qui pourrait prendre la forme de programmes nationaux dont la gestion serait confiée pour tout ou partie aux organismes et qui pourraient ainsi assurer une meilleure cohérence et une lisibilité accrue du dispositif, notamment sur le plan international.
Cette concertation en amont "permettrait de répartir les efforts financiers de façon optimisée entre le soutien de base et l'équipement des laboratoires et les financements de programmes".

Dans le domaine de la Terre solide, une telle concertation devrait concerner les programmes "Dorsales", "Intérieur de la Terre" et un nouveau programme " Paléoenvironnement " dont le CCSPE approuve la mise en place par le CNRS. Cette concertation devrait aussi laisser place à un nouveau thème de recherche sur le champ magnétique de la Terre et la simulation de l'effet dynamo.

Dans le domaine des enveloppes fluides et du climat, elle concernerait principalement les programmes nationaux en relation directe avec la thématique "climat " (PNEDC, PROOF, PNCA). L'effort prioritaire dans ce domaine devrait porter sur le démarrage dans un cadre international du programme CLIVAR d'étude de la variabilité climatique qui implique certainement des moyens financiers complémentaires. Ceux-ci concernent aussi bien les actions "recherche" que le maintien des réseaux d'observation nécessaires à la collecte des données climatiques. Dans le domaine des recherches en biogéochimie marine, actuellement coordonnée au sein du programme PROOF, selon le Comité, une réflexion doit être conduite à court terme pour redéfinir les axes prioritaires de recherche, en prenant en compte la redéfinition en cours des programmes internationaux (comme le PIGB).

Le Comité souhaite également poursuivre la réflexion cette année dans le domaine des recherches sur le climat afin de pouvoir disposer d'un document stratégique. Celui-ci  permettrait, d'une part d'identifier les domaines prioritaires de recherche et, d'autre part, de clarifier les liens entre recherche amont et applications opérationnelles. Il s'appuiera sur l'effort de prospective actuellement conduit par la division océan-atmosphère de l'INSU dans le cadre de la préparation d'un colloque de prospective prévu à l'automne 2000.

Lien Recherche - Décision publique
Pour le Comité, les négociations internationales sur les questions globales et l'environnement, les débats sur le développement durable ont mis en évidence la nécessité d'intégrer, dans les processus de décisions publiques, des expertises scientifiques de différents domaines ainsi que des contributions venant des différents acteurs privés ou associatifs. Ces nouvelles thématiques réclament un effort constant de recherches et d'analyses, une information, une mise en perspective et un niveau d'expertises techniques qui ne peuvent être assurés par l'administration "gouvernante". En revanche, les institutions scientifiques, les universités et les différentes structures de recherche ont de grandes difficultés à s'insérer dans le dispositif de décision public. Elles peinent aussi à participer à la mesure de leurs compétences et des attentes du public, aux débats collectifs sur les questions d'environnement et de développement durable.

Dès lors, le Comité approuve fortement l'idée émise dans le rapport sur le développement durable (rapport rédigé à la demande de Lionel Jospin par Laurence Tubiana) de créer une structure d'interface, qui pourrait prendre la forme d'une Fondation Internationale pour l'environnement et le développement, appuyant un réseau autour des structures de la recherche et des autres lieux d'accumulation des compétences. Serait ainsi créé un cadre qui rassemble des acteurs de la décision publique, des scientifiques mais aussi des acteurs privés ou associatifs, pour faire émerger les questions stratégiques pertinentes, et permettant de collecter et de distribuer des financements suffisants pour intéresser des équipes. Cette structure aurait aussi pour objectif de consolider des équipes sur la durée, d'associer des chercheurs contractuels confirmés, d'accueillir des fonctionnaires ou des cadres du privé désireux de se former par la recherche.
Une structure permanente très légère chapeautée par un conseil d'orientation répartirait des moyens incitatifs entre des équipes françaises associées à des équipes européennes, à partir de propositions venant de l'Etat ou des équipes elles-mêmes.

* En complément de ces recommandations, le CCSPE souligne la nécessité, pour la plupart de ces actions, de prendre en compte la nécessité d'une coordination active avec le Ministère de l'Aménagement du Territoire et de l'Environnement (MATE).

Monsento annonce avoir réalisé la cartographie du génome du riz
Biotechnologies végétales/économie
Mardi 4 avril 2000

L'avant projet de cartographie de génome du riz vient d'être réalisé par les chercheurs du  groupe américain Monsento et de l'université de Washington à Seattle. Cette avancée va permettre, selon les spécialistes, de gagner deux ans sur le séquençage définitif  de cette céréale. Celui-ci, en cours de réalisation, vise à obtenir la formule génétique complète de ses 12 chromosomes, soit la liste ordonnée des 430 millions de nucléotides constitutif de son ADN.
Le groupe américain, devançant la vingtaine d'instituts de recherche de dix pays  (dont un français, le CIRAD) qui depuis 1998 participent au Programme international de séquençage du génome du riz (IRGSP), a annoncé qu'il mettra ses données à l'entière disposition de tous les instituts de recherche membres de ce Programme international. Ces instituts pourront consulter librement la base de données de Monsento et exploiter tout aussi librement d'éventuels brevets élaborés à partir de ces données.
En revanche, les institut non-membres de ce programme auront accès à la base par internet, après avoir accepté un accord avec Monsento : s'ils déposent un brevet issu de ces données, ils devront en priorité proposer à Monsento de l'exploiter et partager avec le groupe américain d'éventuelles recettes commerciales.
 
Monsento a officiellement remis sa base de données au ministère japonais de l'Agriculture, pilote du Programme international de séquençage de génome du riz. Nul doute qu'en choisissant de partager ses recherches, Monsento souhaite améliorer son image de marque, passablement dégradée par le tollé suscité  par sa semence "Terminator" génétiquement modifiée et stérile. Rappelons que  le groupe avait alors été accusé de vouloir obliger les agriculteurs du tiers-monde à acheter ces semences. Le projet avait été abandonné.
Etape préalable au séquençage, la cartographie du riz, qui consiste à "baliser" l'ensemble de l'ADN constitué par ses 12 chromosomes, va en accélèrer considérablement la réalisation (et par là-même le décryptage génétique de toutes les autres graminées comme le blé, le maïs ou le sorgho). Il restera à identifier et localiser chacun des 50000 gènes qui composent le riz, puis comprendre la fonction de chaque gène. C'est seulement alors qu'il sera possible, par exemple, de sélectionner les riz présentant des caractères intéressants, comme la résistance à certaines maladies. Selon l'Institut international de recherche sur le riz, en 2020, l'alimentation de quatre milliards de personnes dépendra de cette céréale. Autant dire que les améliorations issues du décryptage du génome de la plante seront au centre d'un enjeu commercial et humain considérable.

logoTout savoir sur l'eau douce en visitant le site web du CNRS
Culture scientifique
Lundi 3 avril 2000

Le Centre national de la recherche scientifique (CNRS) lance sur son site web le deuxième dossier Sagascience (http://www.cnrs.fr/cw/dossiers/doseau/accueil.html) consacré à l'eau douce.
Celui-ci, qui sera enrichi au cours du temps, traite de l'ensemble des aspects liés à cette ressource vitale : nature physique et chimique de l'eau, présence dans l'univers, cycle, écosystèmes aquatiques, usages, dégradations, aspects économiques et géopolitiques...

Destiné au grand public, mais aussi aux étudiants, enseignants et journalistes, SAGASCIENCE  regroupera à terme une large collection de dossiers scientifiques thématiques en ligne, abondamment illustrés, formant un ensemble cohérent d'informations validées. Les prochains dossiers auront pour thème "Les plantes transgéniques", "Chimie et Beauté", "Les nanosciences", "L'évolution".
Rappelons que le dossier Climat , qui a inauguré cette collection en juin dernier, propose entre autres des réponses aux  questions générales comme : Comment la pression atmosphérique influe-t-elle sur le temps ? Pourquoi n'y a-t-il pas de cyclones dans nos régions et ne pleut-il pas dans le désert? ...

L'information scientifique et technique est l'une des missions du CNRS, qui  met ici à profit l'opportunité offerte par Internet pour exposer en direct, sans contraintes de place ou d'actualisation, toutes les facettes de thèmes scientifiques, souvent complexes et transdisciplinaires. Ceci est également pour lui une occasion de montrer l'offre multiple de la recherche française en ces domaines, en s'appuyant sur tous les moyens de communication, des plus simples au plus évolués tels que vidéos ou images 3D interactives.

Et pour en savoir un peu plus

Répartition : 97,5% des eaux de la planète (soit 1400 millions de kilomètres cubes) sont salées. L'eau douce ne constitue que les 2,5% restants, congelé pour la plupart dans les profondeurs de l'Antarctique et du Groenland. Seulement 0,26% d'eau fraîche est facilement accessible à l'homme.
Localisation : deux tiers de la population mondiale vivent dans des régions qui reçoivent seulement un quart des eaux de pluies annuelles. La Chine, avec 21% de la population mondiale, reçoit 7% des précipitations. L'amazonie, qui en héberge 0,3%, en reçoit 15%. 26 pays, où vivent 250 millions de personnes, ne bécifient pas du minimum vital de 1000m3 d'eau par an et par habitant.
Disparités : Un habitant de la planète sur 5, soit 1,2 milliard, n'a pas accès à l'eau potable. Un habitant sur 2, soit 3 milliards, n'est pas relié à un système d'assainissement pour l'évacuation de ses eaux usées. Près de 5 millions d'êtres humains meurent chaque année de maladies liés à l'eau.
Utilisation : Au moins 70% de l'eau disponible est utilisée par les activités agricoles. Il faut 4500 litres d'eau pour produire un kilo de riz, près de 10 fois plus pour produire un kilo de viande. L'industrie, pour sa part, consomme près de 20% du total. 10% va à la consommation domestique, pour un volume très variable selon le niveau de vie : 750 litres par jour pour un Texan, 285 pour un Mexicain.
Gaspillages : La moitié de l'eau distribuée au Caire et à Mexico est actuellement perdue en raison des fuites dans les réseaux. La surexploitation des nappes souterraines réduit le niveau des aquifères.
Pollution : La moitié des fleuves et des lacs en Europe, et en Amérique du nord, sont gravement pollués. En Chine, 80% des déchets industriels sont rejetés sans aucun traitement dans les rivières et les fleuves. En Inde, certaines rivières sont polluées à l'arsenic (phénomène naturel, non encore vraiment expliqué). Dans les pays en voie de développement, 20% des espèces aquatiques ont disparu ces dernières années.

logo cnes-tv CNES-TV, site audiovisuel en ligne du Centre national d'études spatiales

Espace/culture scientifique
Samedi 1er avril 2000

Le Centre national d'études spatiales lance la première Web-télévision consacrée à l'espace (http://www.cnes-tv.net).
Le site s'articule autour de trois principales rubriques :

  • Collection, offre  l'accès à un ensemble de films retraçant les moments significatifs de l'aventure spatiale française et internationale. Huit films et douze séquences : premiers pas de l'homme sur la Lune, prochaine mission franco-américaine sur Mars, présentation du progamme Végétation, du satellite Jason (successeur de Topex-Poséidon) en passant par le retour de Perseus sur Terre....
  • Le Kiosque, ensemble de questions regroupées autour de six thèmes (lanceurs et bases spatiales, télécommunications et localisation, observation de la Terre, étude et exploration de l'univers, microgravité, vols habités), auxquelles répondent les ingénieurs et les spationautes : quelle est la différence entre Ariane 5 et les précédentes versions? Comment les marins utilisent-ils les satellites ? En quoi l'observation des océans est-elle si importante? Pourquoi collecter des échantillons sur Mars? Pourquoi les liquides se mettent-ils en boule en impesanteur? Quelle devrait être la durée maximale d'un vol spatial ? Comment dort-on dans l'Espace?...
  • Actualités spatiales, bulletin hebdomadaire d'informations, avec notamment la possibilité d'assister en direct à certains lancements.


Une ressource originale qui peut être qualifiée ici de véritable mission de service public (le CNES est un organisme public de recherche).
Le site, optimisé pour internet explorer 5.0 (compatible Netscape 4.x), nécessite le Realplayer G2 (ou Real player 7) et Flash Player, téléchargeables depuis la page d'accueil.

http://www.admiroutes.asso.fr/action/theme/science/actu/2000/avril.htm
Droits de diffusion