Actualité scientifique

Février 2000

retour accueil "actualité scientifique"
Par Christophe Jacquemin

Mise au point d'un microprocesseur bionique
Technologie
Jeudi 28 février 2000

Boris Runbinsky
Boris Rubinski
  L'équipe du chercheur américain Boris Rubinski vient d'annoncer la réussite de l'implantation d'un tissu humain au sein d'un microprocesseur à base de silicone.
En combinant une cellule vivante et un circuit intégré, ces chercheurs viennent donc de créer le premier "microprocesseur bionique" : c'est la première fois qu'un tissu humain vivant est commandé par un signal informatique.
L'Université de Californie à Berkeley , qui a travaillé plus de deux ans sur l'expérience a déposé, en 1999, une demande de brevet pour cette technologie et devrait bientôt la commercialiser sous licence

Ce microprocesseur, du type de celui utilisé dans n'importe quel ordinateur ou système éléctronique, devrait révolutionner les pratiques médicales. En mettant au point par exemple un équipement microscopique plus fin qu'un cheveu, qui permet à une cellule de s'ouvrir ou de se fermer à la demande, les chercheurs espèrent pouvoir arriver à ouvrir sélectivement des cellules cancéreuses pour laisser entrer des agents susceptibles de les détruire.
Outre le cancer, le traitement d'autres maladies comme le diabète s'avère envisageable.
Jusqu'à présent, les médecins utilisaient un processus électrique pour introduire de nouveaux gènes dans les cellules. Mais l'efficacité de cette méthode avait souvent été mise en question, surtout en absence d'informations sur la destination exacte prise par ces gènes. On ne pouvait d'ailleurs savoir si le processus électrique ouvrait ou non les cellules concernées. Avec le microprocesseur bionique, le contrôle est désormais excellent, selon Boris Rubinski.

Si des applications liée au traitement du cancer ou du diabète peuvent être envisageables dans le long terme, cette découverte devrait être dans un premier temps très utile pour l'expérimentation de médicaments. En effet, ce microprocesseur bionique va faciliter l'introduction de gènes ou de médicaments dans une cellule sans risquer de l'endommager grâce au contrôle de sa membrane.

Accélération du réchauffement de la planète ?
Climat
Vendredi 24 février 2000

Les chercheurs américains du Centre national des données climatologiques (National Climate Data Center) ont observé que le réchauffement de la planète s'est accéléré au cours des 25 dernières années, avec une ampleur qui n'était pas attendue avant le 21ème siècle.
Thomas Karl, directeur du Centre, et son équipe a notamment étudié les années 1997 et 1998 au cours desquelles, pendant 16 mois consécutifs, les moyennes des tempétures ont atteint des records. Ce phénomène n'avait pas eu de précédent depuis le début du 19ème siècle (date du début de l'enregistrement systématique des températures). Il y a une chance sur vingt pour que cette série de hautes températures soit un événement unique. Elle représenterait le début d'une nouvelle tendance au réchauffement, qui irait en s'accélérant. Si une commission gouvernementale sur l'évolution du climat avait prévu en 1995 que le taux de réchauffement au 21ème siècle serait compris entre 1 et 3,5 degrés Celsius, Thomas Karl a observé que le réchauffement, au cours des 25 dernières années, avait déjà atteint une ampleur correspondant à 2 ou 3 degrés par siècle. Selon les chercheurs, cette accélération du réchauffement de la planète serait due à l'action de l'homme avec la production de gaz à effet de serre.

Paludisme : un éclaircissement des mécanismes génétiques de résistance du parasite aux traitements
Génétique
Jeudi 23 février 2000

Les mécanismes génétiques par lesquels le parasite responsable de milions de cas de paludisme dans le monde résiste aux traitement actuellement disponibles viennent d'être éclaircis par l'équipe australienne du chercheur Alan Cowman, qui publie ses travaux dans la revue Nature de ce 23 février 2000 (voir références en fin de texte). Les scientifiques de l'Institut de recherche médicale Walter et Eliza à Melbourne montrent que des mutation d'un gène, appelé pfmdr1, de l'agent de la malaria, Plasmodium falciparum, lui confère une résistance aux médicaments actuels tels que la méloquine, la quinine ou l'halofantrine. Ces mutatoins génétiques ont également une influence sur sa résistance à la chloroquine ainsi qu'à l'artémisinine.

  • Nature du 23 février 2000, n°403, pages 906 à 909: "Pgh1 modulates sensitivity and resistance to multiple antimalarials in Plasmodium falciparum", par Michael B.Reed, Kevin J. Saliba, Sonia R. Caruana, Kiaran Kirk et Alan F. Cowman 
    NB : Les résumés succincts en anglais, voire des articles complets parus sur le site web de Nature peuvent être obtenus, après inscription gratuite (attention, pour que l'inscription aboutisse, il faut absolument cocher sur quelque chose à la rubrique State/Region:* du questionnaire, même si ce n'est pas adapté à votre pays).

Des résultats qui, selon les chercheurs, "pourraient avoir d'importantes implications pour le développement de futurs médicament antipaludéens efficaces".

Jeux vidéo et épilepsie
Neurosciences
Mercredi 23 février 2000

Selon les travaux de l'équipe de l'universitaire italien Vittorio Porciatti parus dans le mensuel "Nature Neuroscience" daté du mois de mars (voir référence en fin de texte), les jeux vidéo et les dessins animés pourraient déclencher des crises d'épilepsie chez les jeunes dont le cerveau est incapable de contrôler sa réponse à la stimulation de flashs lumineux ou d'images scientillantes à base de contrastes entre le noir et le blanc. Ces travaux font suite à une série de crises épileptiques observées en 1997 chez 685 Japonais qui avaient regardé "Pokemon" à la télévision, dessin truffé de flash lumineux.
On sait que chez les enfants de 4 à 14 ans, 0,5 à 0,8% sont atteints d'une épilepsie dite "photosensible", c'est-à-dire survenant lors de stimulations lumineuses intermittentes, due à un dysfonctionnement cérébral sous-jacent encore mal compris. Le problème résiderait dans la capacité du cerveau à interpréter des scènes à grandes variations de contrastes lumineux.
Dès lors, les chercheurs ont enregistré l'activité électrique du cerveau de 23 jeunes, dont 11 souffrent de cette forme d'épilepsie. Chez les sujets normaux, l'activité cérébrale s'accroît jusqu'à un certain point quand le contraste blanc-noir atteint 20%, puis son niveau retombe. Les scientifiques ont constaté que chez les sujet prédisposés, le cerveau continue à s'activer frénétiquement lorsqu'il est confronté à des contrastes beaucoup plus importants.
Cette réponse anormale aux stimulations visuelles intermittentes survient aux fréquences relativement basse (4-10 hertz) et se produit seulement avec les contrastes dans le noir et le blanc. Elle n'intervient jamais aux fréquences très élevées, ni avec les contrastes des couleurs. Ainsi, pour les chercheurs, le mécanisme de contrôle des contrastes manque ou est sérieusement atteint chez le petit nombre de gens atteint de cetet forme d'épilepsie liée à la lumière.

Selon les scientifiques, cette découverte sera utile aux concepteurs de jeux ou de dessins animés pour éviter de créer les situations susceptibles de déclencher les crises.

Faire cloner son animal domestique préféré
Génétique/société
Mardi 22 février 2000


Vu sur le site web de GSC
  La société américaine Genetic Savings and Clone (GSC), située près de Houston, vient de créer une banque de gènes pour chien et chat. Objectif : donner par le clonage une sorte d'immortalité à son animal préféré. "Store your favorite pet's DNA. Dog cloning under development", annonce le site web de GSC ("faites conserver l'ADN de votre animal de compagnie favori. Le clonage de chien à l'étude")

Un véritable succès : le site a déjà été visité par plus de 140 000 personnes et les demandes de renseignements affluent (une quarantaine enregistrée le premier jour d'ouverture de la rubrique).
Chuck Long, directeur général de GSC se frotte les mains : avec 55 millions de chiens vivant aux Etats-Unis, les débouchés sont potentiellement énormes. "Le clonage ne sera cependant pas accessible à tout le monde", déclare Lou Hawthorne, Pdg de GSC. Et pour cause, il en coûtera entre 1000 et 3000 dollars  (6000 à 18000 F) pour congeler l'ADN, 100 dollars (600F) par an de frais de stockage, mais aussi quelque 1200000 F pour disposer de son animal cloné !
Seul petit problème : si les scientifiques maîtrisent le clonage du bétail, la reproduction à l'identique d'animaux domestiques n'a encore jamais été réalisée. Chuck Long est confiant : il estime pouvoir cloner des chats d'ici deux ans, et des chiens d'ici trois.

Bel exemple du "Quand on veut, on peut". Cloner un chat ou un chien n'est pourtant pas si simple. Si depuis Dolly, célèbre brebis écossaise, les scientifique maîtrisent le clonage du bétail, cela risque d'être une autre paire en ce qui concerne un animal de compagnie. Quant à obtenir un chat ou un chien qui soit la copie conforme de l'animal sur lequel on aura prélevé des cellules, tout dépend de ce qu'on appelle conforme... Rapelons en effet que l'être vivant n'est pas uniquement déterminé par ses gènes : l'environnement joue un rôle des plus importants. Un clone de chat gentil se révèlera peut la pire des pestes. Avis aux amateurs.

Une technique ingénieuse pour produire de l'hydrogène
Innovation
Lundi 21 février 2000

Une technique innovante permettant de faire produire à une algue de très grandes quantités d'hydrogène a été présentée ce lundi 21 février lors du Congrès de l'Association Américaine pour l'Avancement de la Science. Selon le chercheur Anastasios Melis de l'université de Californie à Berkeley, il s'agirait là d'une découverte "équivalente à celle du pétrole".
L'hydrogène -gaz considéré comme l'une des principales sources d'énergie  pour l'avenir- est produit à partir de gaz naturel, source d'énergie non renouvelable. Si les biologistes ont pu constater que des algues -comme par exemple la Chlamydomonas reihardtii- fournissaient un peu d'hydrogène, mais en quantité trop infinitésimales pour être utilisable. Mais aujourd'hui, les chercheurs ont trouvé qu'en plaçant cette algue dans un bain manquant de soufre, elle modifie son processus de photosynthèse et produit de l'hydrogène en grande quantité. Dans le procédé présenté, ces algues privées de soufre commencent à fournir de ce gaz 24 heures après le début du traitement. Pendant quatre jours, elles produisent ensuite quelque 3 millilitres d'hydrogène par litre de culture. Pour les garder en vie, du soufre est rajouté à l'eau : elles reprennent une photosynthèse normale. Deux à trois jours plus tard, le processus peut être recommencé en supprimant le soufre. L'hydrogène devient une énergie renouvelable !

Les chercheurs estiment qu'une simple petite mare à usage commercial pourrait fournir assez d'hydrogène pour alimenter une douzaine de voiture pendant une semaine. A l'avenir, des installations industrielles et commerciales pourraient utiliser ce procédé.

Téléphones portables : effets sur le cerveau ?
Physique et santé
Vendredi 18 février 2000

Les micro-ondes émises par les téléphones portables ont-elles un impact éventuel sur la santé humaine, notamment sur le cerveau? Les scientifiques semblent partagés sur le sujet, a expliqué un chercheur lors d'une réunion de l'intergroupe forum consommateurs qui s'est tenue hier au Parlement européen.
Selon Maila Hieranen, experte au ministère de l'emploi et de la santé finlandais, il est impossible de donner une réponse définitive "Nous n'arrêtons pas d'effectuer des recherches : certaines donnent des résultats positifs, d'autres sont négatives" a-t-elle déclaré à l'issue de la réunion.
Rappelons toutefois que, selon une étude effectuée sur des rats, en Suède (équipe de chercheurs de l'université suédoise de Lund, menée par le neurochirurgien Leif Salford), et présentée lors de cette réunion, une exposition, même minime aux ondes diffusées par les téléphones portables, pourrait provoquer des fuites d'albumine dans le cerveau. En d'autres termes, les micro-ondes émises par le portable auraient le pouvoir de perturber le fonctionnement de la barrière hémato-encéphalique, cette couche de cellules qui séparent le sang du cerveau, et qui, à l'état normal, est parfaitement étanche, mais dont les micro-ondes pourraient altérer cette étanchéité.

Finalement, on n'en sait toujours pas plus. Aujourd'hui, il existe une foule de résulats contradictoires. Une étude japonaise, par exemple, conclut à l'innocuité du téléphone mobile pour l'être humain. Les chercheurs allemands de l'Insitut Max Planck de Cologne se veulent aussi rassurants, quoiqu'ils indiquent que 'l'irradiation par des micro-ondes de fréquence et d'intensité correspondant à l'émissions des téléphones cellulaires ne produit que des changements inexsitants ou négligeables de la perméabilité de la barrière hémato-encéphalique".
Alors qu'en penser ? En tous cas, comme le dirait Philippe Geluck dans une de ses fameuses bandes dessinées, le téléphone portable est dangereux pour le cerveau, ne serait-ce lorsqu'on a un imbécile en ligne...

Le mystère de l'orbite de la Lune révélé
Astronomie
Jeudi 17 février 2000

Selon deux astrophysiciens américains, William Ward et Robin Canup (Southwest Research Institute de Boulder au Colorado), qui publient une étude ce 17 février dans la revue Nature (voir reference en fin de texte), la Lune serait le résultat d'une collision tangentielle survenue il y a 4,5 milliards d'année entre notre Terre et un autre corps du système solaire, au moins de la taille de Mars.

vue du cratère lunaire Tycho
Cratère lunaire Tycho
Photo : Marc Sylvestre

 

Cette collision aurait entraîné la projection dans l'espace de lambeaux brûlants arrachés au manteau terrestre et la condensation d'une partie de ces débris aurait donné naissance à la Lune.
Si ce scénario avait déjà été évoqué, il présentait  cependant une importante lacune car il ne proposait aucune explication sur le fait que, contrairement aux satellites naturels des autres planètes, qui évoluent sur des plans équatoriaux, l'orbite de la Lune est inclinée de presque 10 degrés par rapport à l'équateur terrestre.

Pour les deux scientifiques américain, qui pensent avoir trouvé la clé de ce mystère, cette trajectoire serait le fruit d'une interaction gravitationnelle entre la Lune naissante et le disque formé par le reste des débris provenant de la gigantesque collision, disque disparu depuis. 

  • Nature du 17 février 2000, n°403, pages 741 à 743 : "Origin of the Moon's orbital inclination from resonant disk interactions", par William R. Ward & Robin M. Canup.
    NB : Les résumés succincts en anglais, voire des articles complets parus sur le site web de Nature peuvent être obtenus, après inscription gratuite (attention, pour que l'inscription aboutisse, il faut absolument cocher sur quelque chose à la rubrique State/Region:* du questionnaire, même si ce n'est pas adapté à votre pays).

Météo France ouvre trois sites internet expérimentaux
Vie pratique
Mercredi 16 février 2000

Météo France vient d'ouvrir trois sites expérimentaux -Cirrus (http://www.meteo.fr/cirrus), Bora  (http://www.meteo.fr/bora) et Nimbus (http://www.meteo.fr/nimbus) - permettant aux internautes de disposer d'informations métérorologiques à trois jours d'échéance sur la France et à l'étranger.
Ces sites permettent d'accéder au prévisions météo par ville, département, région pour la France et à 300 villes dans le monde. Ils permettent également d'observer la couverture nuageuse de la planète à partir des satellites météorologiques géostationnaires.
Les internautes seront invités à faire part de leurs remarques et de leurs souhaits en répondant à une enquête, depuis les trois sites. Les idées ainsi collectées permettront de rénover le site actuel de Météo France.

Pourquoi parler de cela ici ? Simplement parce que ces sites peuvent se révéler utiles aux chercheurs, ne seraient-ce parce qu'ils doivent souvent se rendre à des colloques, que ce soit en  France, Europe ou à l'étranger. Important de connaître le temps qu'il fait : cela évite de trop charger sa valise.

Modélisation mathématique et physique de la tête humaine : un mannequin en état de choc
Physique/médecine
Mardi 15 février 2000

Des chercheurs du Laboratoires de systèmes biomécaniques et cognitifs de l'Insitut de mécanique des fluides de Strasbourg (labo mixte CNRS) ont mis au point un mannequin qui, pour la première fois, simule de manière réaliste les structures anatomiques et leurs particularités biomécaniques. Objectif : mieux comprendre les mécanismes de lésions et les limites de tolérance au choc de la tête. Rappelons en effet que les blessures crânio-encéphaliques forment une part importante des lésions consécutives aux accident du travail ou de la circulation, ces derniers étant en constante progression. D'où la nécessité d'optimiser la protection de la tête vis-à-vis des chocs, ce qui implique notamment une bonne connaissance du comportement de la "structure" à protéger.
Pour cela, l'équipe de chercheurs dirigée par Rémy Willinger a réalisé une modélisation mathématique et physique de la tête qui, contrairement aux modèles antérieurement utilisés, conçoit la tête humaine comme une structure composée de plusieurs massses déformables.
En effet, si dans les normes en vigueur, la tête est vue comme une structure constituée d'une seule masse indéformable, tous les spécialistes s'accordent à dire qu'il s'agit d'une structure complexe, composée de plusieurs masses déformables. Les modèles courants, tous fondés sur l'hypothèse d'homogénéité et d'isotropie (propriétés physiques constantes dans toutes les directions) de la matière cérébrale ne semblent donc guère réalistes : propriétés des matériaux trop simplifées, géométries non valables et manque de validation par l'expérience.

En premier lieu, les chercheurs ont procédé à une analyse vibratoire de la tête et proposé un modèle aux éléments finis en trois dimensions (MEF 3D). Ce modèle, intégrant l'ensemble des connaissances actuelles, reproduit une géométrie très proche de l'anatomie de la tête  (modèle géométrique obtenu par digitalisation d'un crâne in vitro) et introduit des matériaux aux propriétés non linéaires, plus réalistes. Le modèle permet, en particulier, de reproduire le champ de contraintes intracérébrales et de simuler la fracture du crâne.

prototype physique de la tête de mannequin
Prototype physique de
la tête
de mannequin
                modèle aux éléments finis de la tête et du cerveau

Modèle aux éléments finis.
Insertion du cerveau dans
de la tête de mannequin

Photos : © Laboratoire des systèmes biomécaniques et cognitifs de l'Insitut de mécanique des fluides de Strasbourg

L'analyse biomécanique a été réalisée sur sept éléments distincts de l'espace intercrânien : hémisphères cérébraux, tronc cérébral, cervelet, tente du cervelet, faulx cérébrale, liquide céphalorachidien et crâne. Les propriétés mécaniques de l'espace sub-arachnoïdien* sont également incluses dans le modèle.

En deuxième lieu, l'analyse biomécanique a été transposée au modèle physique pour la réalisation du MEF 3D, ce dernier étant très proche de l'anatomie humaine. Il permet d'intégrer le choc de manière réaliste et de simuler le mouvement actif cerveau-crâne. La dernière partie des travaux a été  d'une part consacrée à la compréhension des mécanismes de lésions, en fonction des caractéristiques du choc et, d'autre part, à l'évaluation des limites de tolérance crânio-cérébrale.
Le MEF 3D est aujourd'hui opérationnel pour la reconstruction numérique et expérimentale d'accidents réels. Il s'agira de déterminer les limites de la tolérance de la matière cérébrale et des critères expérimentaux de lésions, avec pour objectif final l'élaboration d'outils prédictifs de lésions, l'estimation de l'agressivité d'un choc et la détermination des limites de tolérance de la matière cérébrale. A terme, il doit permettre d'évaluer et d'optimiser les systèmes de protection de la tête sur la base de critères biomécaniques.

*L'arachnoïde est une membrane très fine qui enveloppe le cerveau et la moelle épinière des mammifères.

Première spatiale : une sonde en orbite autour d'un astéroïde
Espace
Lundi 14 février 2000

Un rendez-vous spatial historique : la sonde NEAR (Near Earth Astéroïd Rendezvous), lancée de Cap Canaveral le 17 février 1996, s'est placée aujourd'hui en orbite autour de l'astéroïde 433 Eros. Objectif : percer le secret des astéroïdes, clés de la formation de notre système solaire.
La sonde NEAR, autour de l'astéroïde EROS
Vue d'artiste : la sonde NEAR en orbite
autour d'Eros
© D.R.
  Un exploit car à ce jour, aucun vaisseau spatial ne s'était mis sur orbite autour d'un corps céleste si petit : Eros a la forme d'une pomme de terre, de 33 km de long sur 13 km de diamètre ! Il tourne sur lui-même en 5h27 et tourne autour du soleil en un peu plus d'un an et neuf mois.
Au moment du rendez-vous, Eros, dont la surface tavelée de cratères d'impacts avaient déjà été photographiée de loin par la sonde Galileo, se trouvait à 256 millions de kilomètres de la Terre.
 

Bien que les astéroïdes soient connus depuis plus de 200 ans, beaucoup de leurs propriétés restent un mystère. Leur analyse doit pouvoir donner des éléments de connaissances essentiels sur la formation des planètes, sur leurs liens avec les météorites trouvés sur Terre (ou sur la manière de les détruire si l'un d'entre eux devait menacer notre planète (lire à ce sujet la chronique du 4 janvier dernier : Tombera, tombera pas ? Trois spécialistes anglais au chevet de la planète).
D'ores et déjà, la vitesse de la sonde satellisée va permettre d'estimer la masse de l'astéroïde, et donc sa densité, avec une marge d'erreur de 5%. Outre la cartographie précise d'Eros et l'analyse de sa composition,  les instruments de NEAR vont notamment permettre de réaliser la première mesure précise du magnétisme d'un astéroïde, ce qui fournira les clés de son histoire thermale et géologique.
NEAR doit rester un an en orbite autour  d'Eros, à 50 km d'altitude, tournant autour de lui à la vitesse de 35km/h.

  •  Actualisation du jeudi 17 novembre 2000
    Les premières informations transmises par la sonde américaine indiquent qu'Eros est un bloc solide contenant différentes roches à haute teneur en fer. Sa masse est de 2,4 grammes par centimètre cube, environ celle de la croûte terrestre. Eros apparaît donc comme un objet vraiment solide. Le grand nombre et la concentration de cratères d'impact montrent qu'il s'agit d'un viel astéroïde et les pentes de ces dépressions que la croûte de l'astre est compacte, avec peut-être des couches en sous-sol. Les instruments de la sonde mettent par ailleurs en évidence la présence de plusieurs types de roches, dont du pyroxène et de l'olivine (minerais à haute teneur en fer).

20% des docteurs d'université trouve difficilement un emploi
Science/société
Vendredi 11 février 2000

Selon un constat dressé lors du premier colloque national des écoles doctorales organisé les 10 et 11 février à Marseille par les trois universités d'Aix-Marseille, près de 20% des 11000 docteurs d'université diplômés chaque année éprouvent des difficultés à trouver un emploi, du moins auprès des entreprises.
Après leurs thèses, 3000 docteurs trouvent un emploi dans les universités et organismes de recherche publics, 2000 vont travailler dans le secteur privé, 2000 effectuent un stage post-doctoral à l'étranger et 2000 étudiants étrangers regagnent leur pays. Ainsi, bien que titulaires du plus haut diplôme de l'enseignement supérieur, les 2000 docteurs restants recherchent un emploi ou sont contraints de se reconvertir sans pouvoir valoriser leur spécialité.
Selon André Nieoullon, directeur de l'école doctorale des sciences de la vie et de la santé à Marseille et organisateur de ce colloque, "les docteurs qui ont une connaissance de haut niveau ne valorisent pas leur image dans les entreprises françaises, qui connaissent mieux les ingénieurs. Pourtant, ces derniers, qui ont une formation technologique, et les docteurs, qui ont une formation plus théoriques mais sont capables d'animer des équipes et de gérer des budgets, sont complémentaires (...). Il faudrait encore favoriser, voire généraliser les stages en entreprises".
Selon le ministère de l'éducation nationale, sur les 11000 doctorats d'université délivrés chaque année,  25% concernent la physique et les sciences de l'ingénieur, 19% la biologie et la santé, 18% les sciences de l'homme, 16% les sciences de la société, 10% la chimie, 8% les mathématiques et 4% les sciences de la Terre.

Mais que font les entreprises ? Pourquoi connaissent-elles mieux les ingénieurs ? Est-ce de la faute aux universitaires ou est-ce aussi un manque de clairvoyance de la part des entreprises privées. Le concours national de création d'entreprises de technologies innovantes (dont la deuxième édition vient d'être lancée le 2 février par le ministère chargé de la Recherche et de la Technologie) a pourtant démontré  (s'il en était encore besoin) la formidable part d'invention et de création existant chez les jeunes universitaires. Rappelons en effet qu'une très forte part des 244 lauréats primés l'année dernière sont de jeunes docteurs d'universités.
A méditer, lorsque l'on sait qu'une forte quantité de chercheurs doit partir en retraite dans un avenir proche et que l'on constate une forte diminution des inscriptions en université dans les filières scientifiques...

Les chercheurs du CERN au plus près du Big-Bang
Physique
Jeudi 9 février 2000

Les physiciens menant le programme "Ions lourds" du Laboratoire européen pour la physique des particules (CERN) ont présenté, jeudi 9 février 2000 à Genève, des preuves décisives de l'existence d'un nouvel état de la matière dans lequel les quarks, au lieu d'être confinés dans des particules plus complexes comme les protons et les neutrons, sont déliés et se déplacent librement (plasma de quarks et de gluons).
Si la théorie prédisait l'existence de cet état environ 10 microsecondes après le Big Bang, avant la formation de la matière telle que nous la connaissons aujourd'hui, aucune confirmation expérimentale ne permettait de vérifier cela. Grâce aux résultats obtenus dans le cadre de l'expérience NA50 menée sous la direction du physicien français Louis Kluberg, notre conception de la création de l'Univers -qui restait une théorie non vérifiée pour tout instant antérieur à la formation des noyaux des atomes ordinaires, soit environ trois minutes après le Big Bang- reçoit désormais une justification expérimentale valable quelques microsecondes seulement après le Big Bang.


Pour ne pas mourir complètement idiot

La matière est notamment constituée de quarks (les constituants les plus élémentaires connus à ce jour) que l'on ne peut voir isolément. Ils sont toujours regroupés par deux, comme dans les mésons (particule composé d'un quark et d'un antiquark), ou par trois, comme dans les nucléons (protons et neutrons). Selon les physiciens, ce confinement est dû à la force forte, l'une des quatre interactions fondamentales que l'on rencontre dans la nature, interaction qui, chez les quarks, est assurée par une autre particule (appelée gluon).
Selon la chromodynamique quantique (théorie qui décrit les interactions fortes), les quarks et les gluons ne seraient plus confinés lorsqu'ils sont placés à des énergies extrêmement élevées, et se comporteraient alors comme des particules libres, formant ainsi un plasma de quarks et de gluons.
D'après les chercheurs, c'est ce plasma, ce potage primitif, qui aurait été l'état de la matière immédiatement après le Big-Bang, avant que les quarks ne s'assemblent en protons ou neutrons pour constituer les noyaux atomiques tels que nous les connaissons aujourd'hui.

C'est en faisant entrer en collision des ions (noyaux d'atomes) très lourds contre d'autres noyaux d'atomes, en projetant des faisceaux de plomb de plus en plus énergétiques sur des cibles de plomb, que les physiciens du CERN ont mis en évidence la formation de ce plasma.

détecteur NA50
Détecteur NA50
© CERN
       La théorie de Satz et Matsui (1986), prévoit que la production d'une certaines particule, le méson J/psi, doit diminuer de façon considérable en cas de formation d'un plasma de quarks et de gluons. Ce méson, d'une durée de vie infiniment brève, ne se forme que lorsque les deux quarks de type "charme" qui le composent sont suffisamment proches. Or, dans le plasma, la force qui les attire se trouve supprimée.
L'expérience NA50 menée au CERN (impliquant une centaine de chercheurs, pour moitié de l'IN2P3 du CNRS) qui a mis en évidence une chute du taux de production de ce J/psi au-delà d'une certaine densité d'énergie et sa diminution régulière pour les valeurs les plus élevées ne s'explique que par la production d'un plasma de quarks et de gluons. "Nous tenons maintenant la preuve de l'existence d'un nouvel état de la matière dans lequel les quarks et les gluons ne sont pas confinés", a ainsi expliqué Luciano Maiani, Directeur général du CERN


Pour parvenir à ce résultat, les faisceaux d'ions de plomb ont été accélérés dans le Super-Synchrotron à Protons (SPS), à une énergie de 160 Gev par nucléon (1 Gev = 1 milliard d'électrons-volt), permettant des collisions entre noyaux à une énergie de quelque 33 tera électron-volt (mille millards d'électrons-volt). Les collisions engendrent des températures plus de 100000 fois supérieures à celle qui règne au centre du Soleil et des densités d'énergie vingt fois plus élevées que celle de la matière nucléaire ordinaire, jamais atteintes auparavant en laboratoire.

Programme d'expérimentation avec des ions de plomb

Ce programme a débuté en 1994, après que les accélérateurs du CERN eurent été perfectionnés par une collaboration entre le CERN et des instituts d'Allemagne, de France, de l'Inde, d'Italie, de la République tchèque, de Suède et de Suisse. Une nouvelle source d'ions de plomb a été raccordée à la chaîne des accélérateurs préexistants du CERN, le synchrotron à protons (PS) et le SPS. Les sept grandes expériences ­ NA44, NA45, NA49, NA50, NA52, WA97 / NA57 et WA98. ­ participant à ce programme ont étudié divers aspects de collisions plomb-plomb et plomb-or. Certaines d'entre elles utilisent des détecteurs polyvalents pour mesurer et corréler plusieurs phénomènes observables parmi les plus fréquents. D'autres sont spécialement conçues pour la détection des "signatures" rares avec un grand volume de données. La coordination de ces expériences complémentaires s'avère très fructueuse.

Le programme d'expérimentation avec des ions plomb est un bel exemple de collaboration dans le domaine de la recherche en physique : scientifiques provenant d'instituts de plus de vingt pays, partenariat entre physiciens des hautes énergies et physiciens nucléaires,  sept expériences complétant chacune de nombreuses pièces du puzzle. Si les données d'une seule de ces expériences ne sont pas suffisantes pour reconstituer le tableau dans son ensemble, les résultats combinés de l'ensemble des expériences concordent et se complètent. Alors que toutes les tentatives d'explication par des interactions de particules bien connues ont échoué, maintes observations sont conformes aux "signatures" prédites pour un plasma quark-gluon. Ainsi, les résultats du CERN viennent stimuler les expériences à venir. Si toutes les pièces du puzzle semblent aujourd'hui concorder en recourant à la présence d'un tel plasma, il est essentiel d'étudier ce nouvel état de la matière à des températures plus élevées et plus basses afin d'en préciser toutes les propriétés et de confirmer cette explication. Le relais de la recherche avec les ions lourds (qui impose des accélérateurs de particules toujours plus gigantesques) est maintenant transmis au collisionneur d'ions lourds relativistes (RHIC) du Laboratoire national de Brookhaven (Etats-Unis) où les expériences doivent débuter cette année. En 2005, une expérience spécialisée avec des ions lourds (ALICE) figure également au programme du grand collisionneur de hadrons (LHC) du CERN, actuellement en construction.

A l'ère des picosatellites, les plus petits satellites du monde
Technologie/espace
Mercredi 9 février 2000

Les deux picosatellites en orbite (vue d'artiste)
Les deux picosatellites en orbite
autour de la Terre (vue d'artiste)

© Aerospace Corporation
    Deux picosatellites, réalisés par les ingénieurs d'Aerospace Corporation, ont été lancés avec succès dans l'espace, en orbite basse, le 26 janvier dernier depuis la base Vandenberg (base de l'armée américaine située en Californie). Le lancement de ces deux satellites -les plus petits au monde puisqu'ils mesurent 10 cm de longueur sur 7cm de largeur et 2,5 cm d'épaisseur et pèsent moins de 200 g- s'est effectué par une fusée composée en partie d'un ancien missile balistique. Ils étaient installés dans un satellite mère, OPAL (Orbiting Picosat Automated Launcher), construit par des étudiants de l'université de Stanford (School's Space Systems Development Laboratory).

Les deux satellites ont été déployés dimanche dernier et le contact a été établi le 7 février : ils ont émis et reçu des messages, ce qui était l'objectif de cette mission. Ces engins expérimentaux ont pour but, d'une part de vérifier le système microélectronique (MEMS) de commande radio-fréquence  (conçu par le Rockwell Science Center ) et, d'autre part, de valider le concept de constellations de nanosatellites (communiquants et communiquant entre eux) qui opéreront dans le futur.
Une technologie révolutionnaire pour les futurs systèmes de communication : faible puissance nécessaire, robustesse à toute épreuve, tolérance aux radiations, faible coût de fabrication.
Une autre mission est planifiée pour la mi-juin.
              Les plus petits satellites au monde
Les plus petits satellites au monde
© Aerospace Corporation

Une véritable prouesse puisque repérer les deux picosatellites dans le ciel pour entrer en communication avec eux revenait à trouver une épingle dans une botte de foin.
Nous sommes entrés dans une ère nouvelle. Aujourd'hui, la dénomination des satellites se fait selon le poids : picosatellite pour moins d'un kilogramme ; nanosatellites pour des poids de 1 à 10 kg ; microsatellites, de 10 à 100 kg ; petits satellites ,de 100 à 1000 kg ; satellites standars,1000 kg et plus. La plus petite catégorie envisagée est le femtosatellite : moins de 100 g.

Projet de budget américain de recherche pour 2001 : une hausse de 6% et une priorité pour les nanotechnologies
Politique de la recherche
Mardi 8 février 2000

Le projet de budget américain pour l'année fiscale 2001 (qui démarre le 1er octobre 2000) prévoit d'allouer 43,3 milliards de dollars à la science (volet Recherche et développement), soit une progression de 6% par rapport à l'année fiscale 2000. En pointe, les nanotechnologies, avec une enveloppe en augmentation de 83% par rapport à l'année dernière. A ce sujet, le conseiller scientifique de Bill Clinton a annoncé le lancement d'une initiative nationale en ce domaine, qui concerne la fabrication de structures et de mécanismes à l'échelle du milliardième de mètre.
La Fondation nationale pour la science (NSF) voit  pour sa part ses crédits augmenter de 17%, les Instituts nationaux de la santé (NIH) de 6% et l'Administration nationale de l'aéronautique et de l'espace (NASA) de 6% (première augmentation de puis 7 ans).

Les nanotechnologies ont le vent en poupe. Un document provenant de la Maison Blanche, "Investissement pour le 21ème siècle", souligne notamment que les nanotechnologies permettront à terme de mettre le contenu de la Librairie du Congrès dans un dispositif de la taille d'un morceau de sucre ou de réaliser des progrès révolutionnaires en médecine pour amener les médicaments sur les cellules malades.
Puisqu'on parle d'investissement pour le 21 ème siècle, allons plus loin : développpement des nanotechnologies pour réaliser des robots de taille nanométrique réparant notre corps, directement, de l'intérieur ; mise au point de l'ordinateur quantique, etc...

Les scientifiques au chevet du Comté
Technologie/alimentation
Lundi 7 février 2000

Des chercheurs du Centre national de la recherche scientifique (CNRS) et de l'Institut national de la recherche agronomique (INRA), en collaboration avec les fromageries Brun de Poligny (Jura), viennent de mettre au point un capteur à ultrasons permettant de contrôler le Comté, sans l'abîmer. Cette recherche menée depuis 1996 s'inscrit dans le cadre du programme "Aliment demain"  (1994-1997).des ministère chargé de la Recherche, et de l'Agriculture (devenu aujourd'hui programme Aliment -Qualité-Sécurité 1998-2001).
Jusqu'à présent, pour déceler les défauts du fromage, les artisans utilisaient un petit embout cylindrique de corne et d'inox en l'introduisant dans la pâte afin d'en prélever une carotte ou en l'utilisant pour tapoter la surface des meules afin de découvrir d'éventuelles cavités.
Le capteur à ultrason  réalisé par les scientifiques offre le double avantage de contrôler le fromage sans l'abîmer et de localiser les éventuelles anomalies de façon extrêmement précise les anomalies. Actuellement à l'état de prototype, il se présente sous la forme d'une table munie d'un émetteur et d'un récepteur. Au contact de la meule, il reproduit sur un oscilloscope un signal dont l'interprétation permet de déceler des fissures et de caractériser la texture de la pâte. L'affineur doit en effet  le plus souvent faire face aux "lainures" (sortes de lézardes), aux "cassures" ou à la présence de cavités de la taille d'une tête d'épingle, dépendant de nombreux facteurs comme la qualité du lait,  les processus de fabrication, les conditions de conservation... d'où l'importance d'être averti en temps réel lorqu'un défaut se forme.
Le capteur permet un contrôle régulier : on peut ainsi rectifier l'évolution d'une meule, la mettre dans une cave moins chauffée si besoin est, avant qu'elle ne se fissure.
Selon Bertrand Nongaillard, responsable de l'équipe Génie biologique et médicale au département d'opto-acousto-électonique de l'Institut d'électronique et de microélectronique du Nord (équipe rattachée au CNRS à l'université de Valenciennes), une miniaturisation des capteurs est rapidement envisageable en vue d'une industrialisation du procédé, qui pourrait également être adapté à différentes variétés de fromage.

Grâce à cette innovation, il est désormais possible d'isoler uniquement la partie défectueuse de la meule, sans sacrifier l'ensemble. Un avantage non négligeable, lorsque l'on sait que 20 à 25% des meules de Comté, en moyenne, subissent une déclassification  à cause d'une anomalie, et finissent le plus souvent sous forme de gruyère râpé ou de fromage fondu dans les rayons des supermarchés.

Les vols d'essai des abeilles observés pour la première fois
Ethologie
Vendredi 4 février 2000


abeilles dans la ruche
© DR.
    Sachant que, dans leur quête de nourriture, les abeilles peuvent parcourir jusqu'à 10 km, de quelles façons acquièrent-elles la maîtrise de leur environnement, lorsqu'à l'âge de trois semaines, elles abandonnent leurs tâches domestiques et sortent de la ruche ? C'est la question fondamentale que s'est posée une équipe américaine dirigée par Elisabeth Capaldi (université de l'Illinois), qui présente ses travaux dans la revue Nature parue le 3 février 2000 (cf.référence en fin de texte).

Cette question intrigue en effet depuis longtemps les chercheurs, sachant que les abeilles volent trop vite et sur de trop longues distances pour être observées à l'oeil et que, par ailleurs, il est impossible de les équiper de balises radio. Jusqu'à présent donc, seuls les déplacements d'abeilles à proximité des ruches ont pu être enregistrées.
Elisabeth Capaldi et son inventive équipe n'en est pas restée là : en dotant des abeilles d'une mini-antenne équipée d'un capteur qui répond à des impulsions radar, elle a découvert qu'avant de s'aventurer loin de la ruche à la recherche de nectar, une jeune abeille méliffère commence par reconnaître son environnement, prendre des repères, en effectuant des vols d'orientation. Des vols qui s'effectuent quasiment en ligne droite au départ de la ruche, jusqu'à une distance variant entre 10 et 300 mètres, au terme de laquelle les abeilles effectuent un demi-tour et reviennent à la ruche. Six vols en moyenne, de plus en plus long, sont nécessaires avant qu'elles ne se lancent dans leur première quête de nectar.Par ailleurs, plus les abeilles allongent leur parcours, plus elles accroissent leur vitesse, ce qui laisse penser que l'altitude augmente de même. Ainsi, ces hyménoptères moduleraient leur vitesse de vol pour garder constante sur leur rétine la vitesse de défilement des images, ce qui impliquerait que les repères pris en compte sont ponctuels à proximité de la ruche, et bien plus étendus au loin. Il reste qu'il faut 17 vols d'orientation à certaines abeilles avant d'aller butiner, alors que quelques-uns suffisent à d'autres, ce que les scientifiques ne savent pour l'instant expliquer

                    Dans une autre étude publiée ce 4 février 2000 dans la revue Science (voir référence en fin de texte), une équipe germano-australienne conduite par Mandyan Srinivasan (université nationale d'Australie à Canberra) prouve que le système d'évaluation des distances des abeilles est gouverné par la vision.
Il y a plus de 30 ans, Karl von Frish avait montré que les abeilles évaluent les trajets entre leur ruche et leur site de butinage, ce qui facilite leurs retours et les transmissions d'informations sur les nouveaux sites de nourriture (transmission effectuée par une danse devant la ruche). Deux hypothèses ont été avancées pour expliquer ce processus d'estimation :
  • l'une, formulée par le naturaliste allemand, le fait dépendre de l'énergie dépensée par les abeilles durant leurs vols ;
  • l'autre, de leur système optique.

Mandyan Srinivasan et son équipe ont habitué des abeilles mellifères à parcourir, pour aller butiner, 230 mètres en passant par un tunnel long de 6,4 mètres de long, large de 11 centimètres et haut de 20. A leur retour, les insectes indiquent à leurs congénères, à travers leur danse, une distance réduite de moitié.
Dans d'autres expériences, le tunnel a été décoré de bandes longitudinales noires et blanches. Dans ce cas, la longueur du trajet est évaluée par les abeilles comme une distance de 186 mètres à l'air libre.
L'estimation des distances par les abeilles semble donc bien relever de leur système visuel.

  • Nature du 3 février 2000, n°403, pages 537 à 540 : "Ontogeny of orientation flight in the honeybee revealed by harmonic radar", par Elisabeth A. Capaldi, Alan D. Smith, Juliet L. Osborne, Susan E. Fahrbach, Sarah M. Farris, Donald R. Reynolds, Ann S. Edwards, Andrew Martin, Gene E. Robinson, Guy M. Poppy et Joseph R. Riley.
    NB : Les résumés succincts en anglais, voire des articles complets parus sur le site web de Nature peuvent être obtenus, après inscription gratuite (attention, pour que l'inscription aboutisse, il faut absolument cocher sur quelque chose à la rubrique State/Region:* du questionnaire, même si ce n'est pas adapté à votre pays).

  • Science du 4 février 2000, volume 287, n° 5454, pages 851 à 853 : "Nature Honeybee Navigation: Nature and Calibration of the "Odometer" " , par Mandyan V. Srinivasan, Shaowu Zhang, Monika Altwein, et Jürgen Tautz.
    NB : L'accession à l'abstract de cet article n'est possible qu'après inscription à l'accès gratuit "Science online" (cliquer ensuite dans l'option "Register free").

 


Le mystère de la foudre en boule enfin révélé ?
Météorologie/foudre
Jeudi 3 février 2000

La foudre en boule, ce phénomène quelque peu mystérieux apparaissant parfois au cours d'un orage, ne serait rien d'autre que des boules de particules de silicium en feu... c'est du moins l'explication qu'en donnent John Abrahamson et James Diniss dans un article paru aujourd'hui dans la revue Nature (voir référence en fin de texte).
Rappelons que ces "boules de feu", que peu de témoins ont vues (mise à part les nombreux lecteurs d'un fameux album des aventures de Tintin), ont une taille allant de la balle de golf à celle d'un ballon de plage et procurent un éclairage aussi fort qu'une ampoule de 100 Watts. Elles se déplacent dans l'air pendant une dizaine de secondes en rebondissant sur le sol ou en écorchant les objets qu'elles frôlent, avant de se dissoudre brusquement ou d'exploser.
Pour les deux chimistes néo-zélandais, le phénomène s'explique par une réaction de la terre mouillée au contact d'un éclair. Quand la foudre frappe, elle pénètre dans le sol sur plusieurs millimètres et vaporise par ce choc des nanoparticules de silicium (qui emmagasinent de l'énergie chimique) naturellement présentes dans la terre. Ceci a pour effet d'éjecter ces dernières dans l'air, où elles s'agrègent en chaînes filamenteuses. Dès lors, les particules en suspensions s'oxydent et brûlent lentement dans l'air : l'énergie accumulée se dégage sous forme de chaleur et de lumière.

La thèse des deux chercheurs ne reste ici qu'une théorie. Si ils ont en effet tenté de reproduire le phénomène en laboratoire, en exposant des échantillons de sol à une décharge électrique, ils n'ont pas obtenu de boules de feu. La décharge a bien provoqué une agrégation en chaîne de particules, qui ont brûlé dans un laps de temps correspondant à celui de la foudre en boule. Mais ces chaînes de particules n'ont pas pris la forme d'une sphère, qui serait imputable aux courants d'air.
Les boules de foudre n'ont, semble-t-il jamais été filmées et n'ont été que très rarement photographiées. Leurs étonnantes propriétés (elles peuvent notamment traverser les murs) ont souvent fait croire à un phénomène surnaturel. Divers chercheurs ont déjà imaginé toutes sortes d'explications : réactions électromagnétiques, nuclaires, antimatière, "fibres fractales", ilusions d'optique, mais aucune d'elles n'expliquait encore la courte durée de la foudre globulaire, ni sa capacité à traverser les murs et les fenêtres.

Récif barrière de Tahiti : 14000 ans d'histoire dévoilée
Géologie/environnement
Mercredi 2 février 2000

Une équipe de chercheurs de l'Institut de Recherche pour le Développement (IRD)* basée à Nouméa et menée par Guy Cabioch  vient de reconstituer l'histoire de la barrière de corail de Tahiti sur 14 000 années, soit la plus longue croissance récifale ininterrompue jamais étudiée.

Récif barrière de Tahiti
Récif corallien de Tahiti. © DR.
       

Durant le Quaternaire, le niveau des océans a varié en fonction des périodes de glaciation (diminuation du niveau) et de déglaciation (augmentation). Le niveau le plus bas, inférieur de 120 à 130 mètres à celui d'aujourd'hui, a été atteint lors du dernier maximum glaciaire il y a quelque 20 000 ans. La fonte des calottes glaciaires a ensuite favorisé une remontée progressive des eaux  océaniques jusqu'à leur niveau actuel. Sous les tropiques,  ces fluctuations de grande ampleur ont contribué à la formation et à la croissance des récifs coralliens.

Dans le cadre d'une étude du Programme national récifs coralliens (PNRCO), les chercheurs ont réalisé quatre forages à plus de cent mètres de profondeur, dans la partie centrale du récif ainsi qu'à proximité de la passe centrale de Papeete, à l'emplacement de l'ancienne embouchure d'une rivière.
Sur ces carrotages ont alors été effectués des analyses sédimentologiques, morphologiques, radiochronologiques (datation des coraux) et paléoécologiques (analyse des organismes fossiles comme les coraux, les algues ou les mollusques...), permettant de reconstituer les différentes étapes du développement du récif. Les associations de la faune et de la flore, étroitement dépendantes de la profondeur, du degré d'éclairement et de l'agitation des eaux, offrent en effet des informations clés sur les modalités de cette croissance récifale.
Les résultats majeurs obtenus montrent que, grâce à un environnement globalement favorable, la barrière s'est développée sans interruption depuis 14000 ans. Il s'agit de la plus importante croissance récifale (80 mètres d'épaisseur) continue jamais étudiée par des scientifiques.Son soubassement, constitué de formations calcaires ou de dépôts issus de roches volcaniques, a commencé à être atteint par la montée des eaux (vers 14000 ans avant notre ère). Deux à trois cents ans après cette mise en eau sont apparus les premiers coraux et le récif a commencé à se constituer.
Jusqu'à 11 000 ans avant nos jours, sa croissance s'est effectuée de façon uniforme, dans un milieu relativement peu propice -eaux profondes faiblement agitées qui, moins éclairées et moins oxygénées, ne sont guère favorables à la croissance des orgismes récifaux. On trouve ainsi des associations de coraux et d'algues fossiles (Porites et Lithophyllum). Après cette date, l'environnement est devenu beaucoup plus favorable à la croissance, comme en témoignent les assemblages de coraux à formes branchues massives et d'encroûtements d'algues rouges, spécifiques des zones récifales de haute énergie (eaux très agitées de faible profondeur).
Les analyses montrent en outre que le récif, au cours de son histoire, s'est caractérisé par un fort taux de croissance (6 mm par an, en moyenne), taux supérieur à ceux enregistrés dans les autres récifs de la région Indo-Pacifique et proche de ceux observés dans les Caraïbes (10 à 15 mm/an).

*Etude menée en collaboration avec le CNRS (UMR Géosciences Azur), le Centre européen de recherche et d'enseignement de géosciences de l'environnement (CEREGE) et l'Université de Provence.

Au-delà des connaissances apportées sur la formation et la croissance des récifs coralliens en période post-glaciaire, ce travail éclaire la façon dont un récif réagit à la remontée du niveau de la mer et, plus généralement, les conséquences potentielles de changements climatiques sur les écosystèmes. Avec le réchauffement global de la planète, de telles recherches s'avèrent essentielles pour la préservation des récifs coralliens. Dans le Pacifique, comme dans d'autres régions tropicales, ces barrières sont en effet d'une importance capitale pour de nombreux Etats insulaires puisqu'elles constituent souvent leur territoire même, les protègent de la houle et des tempêtes et leur fournissent les ressources vitales à leur développement économique (tourisme, pêche...).


Encadrer le commerce des OGM

Environnement/OGM
Mardi 1er février 2000

Plus de 130 pays ont adopté, à Montréal dans la nuit du 29 janvier un accord sur la biosécurité, dont l'objectif est de se prémunir contre une éventuelle dissémination des gènes d'organismes génétiquement modifiés (OGM) à d'autres espèces, ou contre tout autre effet néfaste sur la faune, la flore et la diversité génétique. Cet accord qui va permettre d'encradrer le commerce des OGM, intervient après d'âpres discussions entre l'Union Européenne et le Groupe de Miami des exportateurs mené par les Etats-Unis et le Canada (ce Groupe avait été le principal responsable de l'échec des négociations tenues l'année dernière en Colombie sur ce même sujet).
L'accord s'applique aux semences ou autres produits destinés à être directement implantés dans l'environnement (poissons transgéniques, par exemple...), ainsi qu'à tous les produits agricoles non transformés, destinés à l'alimentation humaine ou animale (presque exclusivement du soja, du maïs, du colza et du coton -voir à ce sujet la chronique du mercredi 26 janvier : "OGM : 39, 9 millions d'hectares cultivés en 1999, dans 12 pays"). Ne sont pas concernés ici les produits transformés à base d'OGM, ni ceux en transit dans un pays, ni les OGM à usage pharmaceutique.

Les pays importateurs devront mettre en place des contrôles. Toute semence transgénique devra, dès sa première arrivée dans un pays, obtenir un accord préalable explicite du pays importateur. En ce qui concerne les produits agricoles de base, si un pays autorise un tel produit sur son marché, il doit en informer le Centre d'échanges de la biosécurité et rendre publiques des informations détaillées sur la nature de la modification génétique.
Un pays pourra s'opposer à l'importation de ce produit, mais la procédure d'accord préalable ne sera pas obligatoire. Tout pays ou groupe de pays qui a déjà un système de contrôle des importations (cas de l'Union Européenne) pourra le garder, même s'il est beaucoup plus strict que le protocole. Les pays pourront, par ailleurs, décider du refus d'un produit en cas d'incertitude scientifique (principe de précaution), la décision finale revenant aux politiques (et non aux experts). Les décisions pourront être revues en cas de nouvel élément scientifique. L'importateur peut aussi demander à l'exportateur de réaliser l'évaluation du risque.

En ce qui concerne l'identification des OGM, le protocole prévoit un étiquetage des livraisons "pouvant contenir" des OGM, sans imposer de livraisons séparées clairement étiquetées OGM ou non OGM. L'accord prévoit néanmoins des étiquetages spécifiques et une décision au plus tard deux ans après l'entrée en vigueur du protocole (des modalités plus poussées concernant l'étiquetage  pourraient être envisagées d'ici deux ans, le texte d'accord étant revu à ce moment-là).

Un peu de science

La France doit accueillir, avant la fin de l'année, la première réunion du Comité intergouvernemental chargé de la mise en oeuvre de ce protocole. Notons que la valeur de ce texte par rapport aux règles commerciales de l'Organisation Mondiale du Commerce n'est abordée que dans son préambule, de façon contradictoire : d'un côté, il stipule que le protocole ne peut être interprété comme une modification des engagements internationaux comme l'OMC et, d'un autre, que ce protocole n'est subordonné à aucun autre accord international.... A suivre...

http://www.admiroutes.asso.fr/action/theme/science/actu/2000/fevrier.htm
Droits de diffusion