logo admiroutes


La Gazette N° 142 en date du 15 juin 2006

Par Jean-Paul Baquiast


accueil "la gazette"

 

- Pour s'abonner gratuitement, ou se désabonner,
adresser un mel à jp.baquiast arobase wanadoo.fr
- Lire la présentation

 
 
Dans l'ensemble des numéros de La Gazette


Retrouver ce numéro sur notre site à http://www.admiroutes.asso.fr/lagazette/06-14206/index.htm

Attention. Nouvelle formule

Désormais les articles publiés ici pourront être retrouvés* et commentés par vous sur le nouveau blog que nous venons de créer:
http://gazetadmiroutes.over-blog.com
En conséquence, nous n'enverrons plus de Lettre aux abonnés. Ceux qui le souhaitent peuvent par contre se réabonner en entrant leur adresse e-mail dans le pavé de gauche "Inscription à la Newsletter". Ils recevront ensuite un mail leur demandant confirmation.

Nous espérons les retrouver fidèles et critiques sur le blog. Je les remercie de leur confiance et pour beaucoup de leur amitié maintenues pendant 6 ans.

* pour ne pas saturer le blog par des articles trop longs, la Gazette bi-mensuelle sera en principe publiée par moitié chaque semaine.

 

Grâce à une initiative de Christophe Jacquemin, tous les textes présents sur le site Admiroutes.asso.fr, et notamment les articles de la présente Gazette, peuvent être retrouvés par une recherche faisant appel aux technologies d'Exalead (société française, cela mérite d'être souligné... Il n'y a pas que Google sur cette planète en matière de technologie intelligente...).
Cela intéressera les historiens que vous êtes certainement. Il suffit de mettre un mot clef significatif dans le cartouche Recherche ci-dessus, puis cliquer et aller aux résultats. Faites LOLF, par exemple.


Toujours grâce à Christophe, la Gazette s'enrichit par ailleurs du logiciel Alexandria.
Double-cliquez sur chaque mot de cette page et s'afficheront alors définitions, synonymes et expressions constituées de ce mot. Une fenêtre déroulante permet aussi d'accéder à la définition du mot dans une autre langue (22 langues sont disponibles). Réalisé par une société française, ce logiciel n'a pour l'instant aucun équivalent dans le monde.


A voir aussi sur Admiroutes - Automates Intelligents - Europa++:

*Réactions au Livre Vert de la Commission: Pour une politique maritime de l'Europe http://www.admiroutes.asso.fr/larevue/2006/74/polmar.htm
* Discussion de 3 articles sur l'avenir de l'Europe http://www.admiroutes.asso.fr/europa%2B%2B/magazine/21/index.htm#deb
* Théorie du complot et analyse scientifique http://www.admiroutes.asso.fr/larevue/2006/73/complot.htm

Nouveautés
* Ouvrage publié en
Open-Source (accès libre et gratuit)
par Jean-Paul Baquiast
Comprendre. Nouvelles sciences, nouveaux citoyens. 2005. PDF 825 ko
Refonte de
Sciences de la complexité et vie politique. Tome 1 Comprendre.

* Par ailleurs, Automates-Intelligents ouvre dorénavant le blog Philoscience permettant de discuter des questions de philosophie des sciences, dont certaines des idées présentées dans ce livre http://philoscience.over-blog.com/
Les pages de ce blog se retrouvent dans notre dossier Philoscience
http://www.admiroutes.asso.fr/philoscience/plan.htm

Rappelons aussi que Automates Intelligents/La Gazette d'Admiroutes disposent d'un blog consacré aux questions de politique générale. N'hésitez pas à y laisser des commentaires :
http://automatesintelligent.blog.lemonde.fr/


Pour suivre les développements de la grippe aviaire: consulter les blogs de notre correspondant le Dr Vermeulen http://drmsfvermeulen.skynetblogs.be/ et http://drmsfvermeulen.over-blog.com/

Voir de sa part deux articles récents:
* La fiction du Doc http://influenza_h5n1.vosforums.com/viewtopic.php?t=3541&postdays=0&postorder=asc&start=0
* Pandémie et plan de sécurité publique
http://drmsfvermeulen.over-blog.com/article-2587620.html

D'autres blogs se sont depuis saisis du problème. Notamment celui du premier ministre français http://www.grippeaviaire.gouv.fr/ . Voir aussi http://influenza.h5n1.over-blog.com/

Nous publions cette photo en hommage au travail fait depuis plusieurs mois, bien avant les prises de conscience officielles, par le docteur Michel Vermeulen sur son blog, afin de nous avertir de la menace grandissante de la pandémie. Inutile de dire que nous prenons cette initiative sans lui en avoir demandé l'autorisation - qu'il aurait sans doute refusée par modestie.


Le Web Sémantique, promesse ou menace?

Depuis 1998, les spécialistes de l’Internet développent, au sein du World Wide Web Consortium, qui est en quelque sorte l’Académie des Sciences et le bureau d’étude du Web, un nouveau concept intitulé le Web Sémantique. L’inventeur du Web, anobli par la Reine d’Angleterre, Sir Tim Berners-Lee (photo ci-dessus), qui est actuellement directeur du W3C, a rappelé plusieurs fois ces temps-ci, dans la presse et lors de la dernière conférence WWW2006 à Edimbourg (http://www2006.org/), l’intérêt du Web Sémantique en vue de conserver le caractère ouvert et démocratique du réseau mondial.

Peu d’utilisateurs de l’Internet ne perçoivent encore clairement ce qu’est le Web Sémantique. Pour tout savoir sur le sujet, le mieux est de se reporter aux pages que lui consacre le W3C (http://www.w3.org/2001/sw/). Résumons cependant de quoi il s’agit. Le Web ordinaire, celui sur lequel le présent article est publié et rendu accessible au profit de tous les internautes, fait coexister et rend accessibles des milliards de documents. Notre article est un document. Les moteurs de recherche savent retrouver un document, à partir soit de méta-données le décrivant (nom de l’auteur, date, sujet abordé) soit par des recherches en texte intégral, pour lesquelles tous les mots de l’article, c’est-à-dire ses données, pourront être considérés comme des mots-clefs. Mais méta-données ou données d’indexation sont encore difficiles à rassembler. Les recherches en texte intégral pour leur part, restent coûteuses et ne peuvent actuellement être généralisées.

Aussi, les moteurs de recherche, pour le moment encore, ne savent pas comment traiter les données internes à un grand nombre d’articles, sans accéder directement aux documents qui les contiennent. Si je recherche le terme Semantic Web sur un moteur, j’aurai une liste très grande (trop grande) de documents abordant le thème du Semantic Web. Mais je ne pourrai pas savoir précisément comment le sujet est traité dans la littérature qui lui est consacrée. Je ne pourrai pas, par exemple, savoir si le Semantic Web est considéré par les auteurs comme un progrès important, une complication inutile ou bien encore une menace pour les libertés publiques.

La raison de cette impossibilité tient au fait que les auteurs des articles ne se sont pas mis d’accord sur un sens commun à donner aux termes, c’est-à-dire aux données, qu’ils utilisent. On retrouve là l’ambiguïté propre à tous les langages humains et à tous les documents faisant appel à ces langages.

Cependant, dans le domaine de la gestion administrative, bien avant l’apparition du concept de Semantic Web, il avait été décidé de chasser cette ambiguïté en convenant de significations communes à donner à un certain nombre de documents et d’informations échangées. On a commencé à définir des méta-données administratives et commerciales en grand nombre (voir http://www.w3.org/Metadata/). Des méta-données ont également été développées pour faciliter la documentation automatique. Par exemple, aujourd’hui, une codification commune décrit l’auteur d’un document, sa date, sa nature et, très sommairement, son objet. Les éditeurs html que nous utilisons tous pour préparer un article destiné à une mise en ligne permettent aux auteurs, notamment à travers la rubrique Propriétés de la page, de préciser ces données. Si les auteurs ne le font pas spontanément, l’éditeur extrait du texte un certain nombre de ces méta-données qui seront édités dans l’en-tête du code source du document.

Ces conventions ont a permis le traitement automatique à grande échelle des documents respectant ces standards, en accédant directement aux données qu’ils contiennent. Ainsi, en rapprochant par une simple application informatique des milliers de déclarations en douanes utilisant la nomenclature douanière internationale, il est possible de faire une étude sur les grands courants d’échange intéressant, par exemple, les produits pétroliers et dérivés.

Le Web Sémantique en pratique

L’ambition du Web Sémantique est de rendre ce processus applicable au plus grand nombre possible de documents administratifs ou commerciaux, voire à des documents de type « littéraire » tel que le présent article. Mais il faudra pour cela que les architectes du Web proposent un cadre commun permettant aux informations contenues dans ces documents d’être traitées comme des données (data) normalisées. Ainsi ces données pourront être partagées et réutilisées indépendamment des applications, des entreprises et des communautés d’auteurs qui les auront générées. Il faudra ensuite que les auteurs acceptent de n’utiliser que des données ainsi normalisées. Ceci réduira leur liberté de création mais facilitera la circulation de leurs productions.

Le travail à faire sera considérable. Il faudra notamment définir, thèmes par thèmes et de façon coopérative, un cadre commun de description des ressources (Resource Description Framework ou RDF) qui utilisera évidemment les acquis syntaxiques (langage XML) ou d’adressage (URL) déjà offerts par le web. Les informations elles-mêmes seront progressivement normalisées à travers le Web Ontology Language (OWL). Par ontologie, on désigne le sens à donner à tel ou tel concept. Il conviendra évidemment de s’accorder sur des sens communs devant être attribués aux concepts que l’on utilisera.

Le W3C précise cela très bien (introduction de http://www.w3.org/2001/sw/) Nous traduisons:

" Le Web sémantique est un web de données. De nombreuses données que nous utilisons tous les jours sont présentes sur l’Internet mais ne sont pas accessibles aux échanges (le Web proprement dit). C’est le cas de mon compte en banque, de mes photographies, de mes dates de rendez-vous. Mais je ne peux pas les rapprocher pour connaître par exemple ce que je faisais le jour où j’ai été photographié, ni l’état de mon compte en banque ce jour-là. Pourquoi ne peut-on pas le faire ? Parce que les données sont encapsulées dans des applications et que les applications ne sont pas conçues pour les échanger.

Le Web Sémantique porte sur deux choses. Il définit des formats communs pour l’échange des données, alors que le Web traditionnel ne définit que les modalités d’échange des documents. Par ailleurs, il offre un langage commun permettant aux données de renvoyer à des objets du monde réel d’une façon identique. Ceci permet à une personne ou à une machine de construire des bases de données puis des réseaux de bases de données qui ne seront pas connectée par des liens physiques mais par le fait qu’elles désignent des objets identiques".


Ainsi, si je veux construire une base de données sur les automobiles, je ne serai pas obligé de me connecter physiquement à des documents concernant des automobiles que j’aurai du identifier et trouver auparavant. Il me suffira de rechercher les données par lesquels les auteurs auront convenu de désigner de façon normalisée le concept d’automobile, ceci quelque soit le document ou l’application support de l’information.

Applications possibles du Web Sémantique

Tout ceci, on le voit, est plus facile à dire qu’à faire. Quand on connaît la lourdeur et le coût des travaux de normalisation des données, tels que ceux entrepris au plan international par l’Edifact Board concernant les données administratives et commerciales, on peut se demander si étendre l’ambition au traitement de données plus générales sera utile. Ceci d’autant plus que ce ne seront pas seulement les normalisateurs qui devront travailler, afin notamment d’affiner ou de faire évoluer constamment les normes, mais les auteurs. Ceux-ci devront connaître les normes à utiliser et s’efforcer de les respecter du mieux possible, si du moins ils veulent être compris par les machines qui interpréteront leurs créations.

Pour Tim Berners-Lee, qui est un idéaliste, l’enjeu mérite l’investissement. Dans les articles et interventions que nous avons évoqués, il explique que le Web Sémantique constitue aujourd’hui la seule façon de sauvegarder l’universalisme et la gratuité d’accès aux informations qui a fait et continue à faire la grandeur du Web. En effet, aujourd'hui, de nombreuses entreprises cherchent à rendre propriétaire et payant l’accès à leurs contenus. Or, la philosophie de l’Internet repose sur le concept de neutralité du réseau. Chacun a le même niveau d’accès aux contenus et toutes les données figurant sur le web doivent être traitées de façon égale. Microsoft et Google, c’est à noter, se sont prononcés publiquement pour la défense de cette philosophie. Mais des compagnies de téléphone américaines en ont pris récemment le contre-pied. Elles veulent définir un Internet partagé (two-tier system) où les émissions des entreprises capables de s'offrir des voies de comunication large bande auront priorité sur les autres. Ceci est recherché, actuellement, dans la perspective de la diffusion des shows télévisuels, très gourmands en bande passante. Mais l’idée devrait être étendue et généralisée à tous usages. Avec le Web Sémantique, cette facturation du temps d’accès en fonction du débit deviendrait impossible ou très difficile, puisque ce seraient les données elles-mêmes qui feraient l’objet des échanges, sans références à leurs auteurs ni à ceux qui les utilisent.

Pour Sir Tim, le seul modèle acceptable reste donc celui où tous les fournisseurs de contenus payent tous le même tarif pour accéder au réseau et pour y diffuser leurs données. Ainsi les universités et les associations ne sont pas défavorisées par rapport aux grosses entreprises, ni en ce qui concerne les facturations ni en ce qui concerne les conditions de connexion. D’où le rôle éminent vertueux que jouera le Web Sémantique.

Les utilisateurs que nous sommes peuvent cependant s’interroger sur l’intérêt qu’ils trouveront à se couler dans les lourdes procédures du Web Sémantique, indépendamment du fait que celui-ci permettra de décourager la segmentation des réseaux et des tarifications en fonction des capacités financières des clients. Pour notre part, nous nous sommes posés la question, en tant qu’éditeur d’une revue scientifique en ligne fonctionnant sur le mode de l’open source. Nos textes sont accessibles gratuitement à tous. Les lecteurs ayant accepté de louer des connections à large bande les reçoivent plus vite que les autres, mais l’égalité entre eux, à ce détail près (dont nous ne tirons aucun profit) reste entière. Pourquoi alors nous engagerions nous dans la définition coopérative de normes décrivant les données que nous utilisons, ou dans la procédure, si ces normes existent déjà, visant à les implémenter dans les codes sources de nos articles ?

La réponse est que cette contrainte nous permettrait d’assurer une meilleure diffusion à nos articles ou, au-delà de ceux-ci, à nos idées. Nous retrouverions là, considérablement augmenté, l’avantage qu’offrent depuis quelques années les moteurs de recherche. Ceux-ci, en associant sur une base désormais très large les réponses aux questions, permettent à de très nombreuses personnes qui ne connaissaient pas notre publication de la découvrir, à propos de la référence aux articles portant sur tel ou tel concept précis que nous aurions traité : par exemple celui de centrale nucléaire à eau pressurisée (PWR). Dans la perspective élargie du Web Sémantique, ce ne serait plus seulement notre article qui serait référencé, mais le sens que nous aurions donné au concept de PWR, par comparaison avec de nombreux autres articles traitant du sujet. Ainsi, un internaute cherchant à se documenter sur le concept pourrait trouver, grâce au travail de rapprochement fait par l’ordinateur, une vision contrasté du problème des centrales PWR, résultant du rapprochement des sens différents donnés par des auteurs différents.

La perspective reste encore lointaine, s’agissant de journaux comme le nôtre traitant un grand nombre de sujets différents. Par contre, dans l’immédiat, nous pensons que le Web sémantique pourrait être utilisé au sein de l’Education Nationale, par exemple pour mieux informer les élèves de l’existence des nombreux documents pédagogiques en ligne et des modes d’accès à ces documents désormais mis à leur disposition par les académies ou les établissements. Le Web sémantique pourrait ainsi devenir le complément des « portails élèves » ou des « portails étudiants » qui, au cœur de réseaux de type Intranet, s’efforcent de faciliter l’accès des élèves aux ressources pédagogiques. La charge supplémentaire imposée aux auteurs qui se verraient obligés de participer aux travaux d’indexation et de normalisation ne serait pas excessive. Elle ferait en tous cas partie de leur métier d’enseignant. D’ores et déjà, le Web sémantique est très apprécié, au niveau de l'enseignment supérieur, par les chercheurs scientifiques qui peuvent grâce à lui accéder à de nombreuses données expérimentales, afin de les analyser automatiquement.

Mises en garde

Mais, contrairement à ce que pense Tim Berners-Lee, le Web Sémantique ne risque-t-il pas de se révéler un nouvel instrument permettant aux pouvoirs de police de pénétrer dans l’intimité des comportements et des pensées des citoyens. Dans un article intitulé « Keep out of MySpace » (N° 30 du 10 juin 2006, p. 30) le NewScientist britannique dénonce le fait que la National Security Agency des Etats-Unis finance des recherches visant à collationner les données personnelles que les individus publient sur eux-mêmes ou rassemblent, au sein d’espace de documentation qui leur sont offerts à cette fin par des sociétés de service. C’est le cas de MySpace (http://www.myspace.com/) espace de rencontre et de convivialité, qui avait été patronné par Microsoft, où les abonnés sont invités à donner beaucoup d’informations les concernant afin de favoriser l’établissement de liens sociaux avec d’autres. Il existe de très nombreux autres sites ludiques où chacun est obligé pour participer de se raconter et de rapporter les comportements et préférences de leurs amis. Par ailleurs, les blogs personnels se multiplient, dont les auteurs n’hésitent pas à se dévoiler ou à dévoiler la vie privée de leurs relations. Les images et photographies personnelles y abondent également.

La NSA espère que le développement du Web Sémantique au sein de ces espaces permettra de rapprocher facilement ces informations personnelles avec d’autres, bancaires, de santé, administratives ou d’achat. Ainsi pourraient être mis en évidence, sans que les intéressés s’en aperçoivent, les profils et donc les personnes qu’à tort ou à raison, les autorités de police jugeraient suspectes. On serait loin alors du scandale provoqué par le fait que la NSA se soit procuré ces derniers mois, via les opérateurs de télécommunication, les contenus des conversations téléphoniques d’un certain nombre d’individus a priori honorables suspectés de pouvoir éventuellement monter des réseaux terroristes. La NSA et autres agences d''intelligence", c'est-à-dire d'espionnage, pourraient pénêtrer partout à l'insu des citoyehs.

Les interconnections sont actuellement difficiles, mais avec le Web Sémantique, les liens apparaîtront d’eux-mêmes, à travers des applications visant à rapprocher les données (data) sans difficulté. En effet, le Resource Description Network précité visera à conférer à chaque type de donnée une identification (tag) unique, prédéfinie et non ambiguë. Les services d’intelligence économique, d’espionnage et de contre-espionnage seront les premiers à en profiter, car ils se seront les premiers dotés des outils permettant de le faire. Il est significatif de constater, comme l’indique le NewScientist, qu’un article intitulé Semantic Analytics on Social Networks, présenté au dernier WWW2006 d’Edimbourg par des universitaires américains, avait été en partie financé par une organisation jusque là inconnue intitulée ARDA. ARDA, qui ressemble étrangement à DARPA, signifie Advanced Research Development Activity. Elle est budgétée par la NSA pour résoudre certains des problèmes que rencontre la communauté du Renseignement aux Etats-Unis. On ne saurait être plus explicite.

Ces jours-ci, l’ARDA a été rebaptisée Disruptive Technology Office (voir Wikipedia : http://en.wikipedia.org/wiki/Disruptive_Technologies_Office). Mais sa mission reste la même : faire du « profiling » à partir de systèmes d’espionnage (intelligence) automatisés. Les 80 millions d’abonnés des actuels sites du genre de MySpace auront tout intérêt à se méfier de ce qu’ils publieront sur eux-mêmes, en s’imaginant que ces détails intimes n’intéresseront jamais personne que leurs proches. Voici de quoi éloigner beaucoup de gens des perspectives culturelles offertes par le Web Sémantique.


Pénombre : une association qui désacralise avec humour statistiques et sondages
par Christophe Jacquemin

Logo PénombreConnaissez-vous Pénombre ? Cette Association a été créée en 1993 pour développer un espace public de réflexion et d'échange sur l'usage du nombre dans les débats de société. Les nombres sont des êtres sociaux, résultats d'une construction dont il vaut mieux connaître le maçon et l'entreprise. Pour que les nombres commencent à prendre sens, il faut connaître les définitions, les concepts utilisés. Sans être spécialiste, on peut se poser quelques questions sur les méthodes de collecte de l'information. Quand on lit par exemple dans la presse à propos des écoutes téléphoniques : "100 000 Français victimes d'interceptions sauvages", on peut naïvement se demander «Comment fait-on pour recenser les écoutes téléphoniques sauvages?».

Le nombre comme être social a sa vie, une longue vie parfois. Il roule de-ci de-là dans le corps social pour atteindre tel ou telle, des millions de tels à l'heure du petit-déjeuner ou à «20 heures». Il se joue des frontières et des supports.
Comment cette entité est-elle reçue par un journaliste, un ministre, un électeur? Qu'en fait-il, à quoi cela lui sert-il? Mystère. Pénombre entend contribuer à lever le voile en favorisant la rencontre de tous ceux qui, à un titre quelconque, participent à cette vie sociale des nombres. Son recrutement éclectique tend à faire un peu oublier à chacun son rôle convenu.

Couverture du livre "Chiffres en folie"L'Asssociation a notamment publié en 1999 le livre "Chiffres en folie- Petit abécédaire de l'usage des nombres dans le débat public et les médias" (Editions La Découverte. Collection "Cahiers libres"), fruit de cinq années d'observation critique. Une lecture toujours d'actualité à l'heure où la multiplication des informations chiffrées, les querelles sur le "vrai chiffre", en passant par les chiffres fantaisistes, sont toujours plus omniprésents dans les médias et les discours publics. L'information chiffrée apparaît en effet comme une preuve d'objectivité et de sérieux. Elle serait même trop sérieuse pour que l'on ennuie le lecteur ou le téléspectateur avec des considérations techniques sur sa validité...
Face aux dérapages et aux manipulations qu'accompagne cette religion du chiffre, les auteurs réagissent ici à leur usage illicite et à la perversion du débat citoyen qu'il implique. L'ouvrage se présente sous la forme d'un abécédaire plein d'humour. De A comme " Adolescents " à Z comme "Zéro", en passant par B comme "Banlieue" C comme "Chômage", D comme "Délinquance et criminalité, I comme "Immigration" ou S comme "Santé", ils proposent un florilège - nourri de nombreux exemples - des diverses formes du mauvais usage des chiffres: confusions involontaires, manipulations délibérées...
La lecture de ce livre est facilitée par un astucieux système de repères permettant de naviguer entre les articles en fonction de diverses grilles d'entrée (par thèmes, par types d'erreurs ou de manipulations). Et surtout, par un ton alerte qui n'évite ni les débats de fond ni les traits d'esprit...10/06/06

En savoir plus :
Site de l'Association Pénombre : http://www.penombre.org


Les Etats-Unis montent une coalition internationale pour bloquer le programme européen Reach (Registration, Evaluation and Authorisation of CHemicals).

Nous avons précédemment signalé l’importance du programme européen Reach visant à identifier les produits chimiques présents dans l’environnement et à procéder à l’évaluation de leurs effets nocifs. Ce programme est dénoncé par les industriels de la chimie, y compris au plan européen, comme susceptible de menacer leurs intérêts économiques, en augmentant les coûts et en interdisant certaines mises sur le marché. Mais il est très appuyé par de nombreuses organisations publiques et privées s’intéressant à la santé humaine et animale, ainsi qu’à la protection de l’environnement. Le Programme Reach, après de nombreux amendements, progresse donc vers une adoption définitive fin 2006.

Il n’est donc pas étonnant de voir les Etats-Unis, gros producteurs et vendeurs de produits chimiques, notamment en Europe et dans le tiers-monde, multiplier les efforts pour enlever toute portée au programme européen. La dernière initiative sur ce plan vient d’être rendue publique. Ils viennent de former une coalition de nations, comprenant le Japon, l'Inde et 10 autres Etats grands partenaires commerciaux de l’Europe, pour bloquer le programme européen en raison des risques qu’il ferait courir au commerce des pays en développement et plus généralement aux petites entreprises.

Rappel :

La Parlement européen avait voté le texte en première lecture en décembre 2005. Le texte est retourné devant le Parlement pour une seconde lecture prévue pour octobre 2006. Le projet avait déjà été très atténué puisqu’il n’intéresse maintenant que 30.000 produits chimiques parmi les 100.000 environ qui sont actuellement utilisées dans l’industrie, l’agriculture et les produits ménagers. Selon les experts de la Commission européenne, les informations de sécurité sont "peu précises" pour environ 99% de ces substances. Cela en partie parce qu’elles ont échappé aux contrôles plus détaillés introduits après 1981 quand une évaluation plus rigoureuse était devenue obligatoire.

La déclaration commune des adversaires de Reach a été rendue publique à l'initiative de la chambre de commerce américaine à l'UE (UE AmCham). Ses signataires sont l'Australie, le Brésil, le Chili, l'Inde, Israël, le Japon, la Corée, Malaisie, le Mexique, Singapour, l'Afrique du sud, la Thaïlande et les États Unis. Les signataires arguent du fait que certains aspects de la réglementation Reach pourraient être considérés comme constituant un obstacle inutile aux échanges, ouvrant la perspective d'un conflit à l’OMC. Ils demandent au Parlement européen de réviser le texte et modifier son champ d’application, notamment en ce qui concerne la compétence de la future European Chemical Agency prévue à Helsinki. Ils dénoncent notamment l’"l'opacité du processus réglementaire" et la charge élevée que représenteront les contrôles de toxicité, notamment pour les PME opérant dans les pays en développement.

Pour les ONG, notamment le WWF, il ne s’agit là que la suite de la politique des Etats-Unis visant à affaiblir le programme Reach au profit de l’industrie américaine, qui ne s’embarrasse pas de contrôles quand il s’agit d’exporter. Les coûts pour les utilisateurs finaux de la zone ACP ne devraient pas dépasser 50 millions d’euros.

La Commission européenne a déclaré pour sa part qu'elle a consulté l'OMC et son propre service juridique sur la conformité avec l'article 2.2 sur les entraves techniques aux échanges. "Nous ne voyons pas comment REACH pourrait violer l’ OMC" a indiqué la porte-parole Barbara Helfferich.

On notera cependant que, dans le lobbying à l’encontre de Reach, une forte opposition s’était exprimée provenant d’industriels européens de l’industrie chimique, notamment allemands. Ils craignaient à juste titre des mesures dont les Européens auraient été les seuls à supporter la charge, ce qui aurait diminué leur compétitivité à l’exportation. Ils dénonçaient aussi l’irréalisme de contrôles approfondis d’innocuité portant sur 100.000 produits. Mais le nouvel état du projet les avait semble-t-il rassurés. L’entrée en sous-main des industriels américains dans le dossier, dont on connaît le mépris pour tout ce qui concerne la protection de l’environnement, devrait renforcer la légitimité des ambitions de santé publique affichées par la Commission et le Parlement européen.

Nous considérons pour notre part que céder sur Reach, déjà considérablement atténué, ou retarder sa mise en application, serait ouvrir un véritable boulevard aux processus déjà difficilement contrôlables d’empoisonnement de la planète par des produits dont l’intérêt n’est souvent que commercial à court terme. Il faudra en conséquence que la future Agence de l’environnement soit rapidement créée et convenablement dotée. Il conviendra aussi de la protéger contre le lobbying d’industriels aux moyens financiers considérables.12/06/06

Prochaines étapes
- 29 juin 2006, prise de position du Conseil de compétitivité
- 4 octobre 2006: Vote prévu au sein de la commission "environnement" du Parlement (deuxième lecture)
- 24 octobre 2006: Vote prévu en session plénière du Parlement (deuxième lecture)
- Fin 2006: Deuxième lecture au Conseil et approbation finale possible du program

Références: The New EU Chemicals Legislation – REACH
http://ec.europa.eu/enterprise/reach/index_en.htm


A Washington : un coup d’Etat qui n’a jamais dit son nom

Le gros livre (603 pages) de Michael Gordon et du général des marines en retraite Bernard Trainor, Cobra II: The Inside Story of the Invasion and Occupation of Iraq, qui vient de paraître, pourrait être considéré comme se rapportant à une histoire déjà ancienne : la façon dont l’Administration américaine a décidé de l’invasion de l’Irak et les multiples raisons qui ont conduit, non pas à l’échec de cette invasion, mais à l’incapacité absolue d’en tirer le moindre résultat allant dans le sens de la pacification de la région et du renforcement de l’influence occidentale. Nous pourrions de notre côté, faisant partie de ces Européens qui s’étaient dès le début opposés à cette opération, telle du moins qu’elle était conçue par les néo-conservateurs et le Pentagone, considérer que, certes, nous avions raison mais que le fiasco auquel nous assistons relève de l’histoire intérieure américaine et ne nous concerne plus. Cependant, nous aurions le plus grand tort. L’évènement majeur que cette crise a révélé continue encore à faire sentir ses effets et à menacer la paix du monde, y compris nos propres intérêts vitaux.

De quoi s’agit-il en effet ? De ce que Philippe Grasset appelle ( http://www.dedefensa.org/article.php?art_id=2792 ) un coup d’Etat post moderne, pratiquée par une bureaucratie qui a voulu échapper et veut encore échapper non seulement au contrôle parlementaire, mais même à ceux du Département d’Etat et des agences telles la CIA qui jusqu’à présent conseillait le Président sur les bonnes stratégies internationales. Selon le journaliste Andrew Bacevitch (London Review of Books, http://www.lrb.co.uk/v28/n11/print/bace01_.html ) la guerre contre l’Irak n’était que le “Premier Front” d’un vaste projet visant à s’approprier la puissance américaine, en ouvrant un “Second Front” dirigé vers les arcanes internes du pouvoir à Washington. Il s’agissait et il s’agit encore d’une « volonté de réduction radicale des pouvoirs et des droits qui ne dépendent pas directement de l’exécutif d’une part, la réduction et l’élimination de tous ceux qui, à l’intérieur de ce même exécutif, s’opposent à ce projet ». On est loin de l’explication un peu facile attribuant l’invasion de l’Irak au désir de mettre la main sur ses ressources pétrolières. Les lobbies du pétrole ont certainement soutenu le projet, de même que les industriels de l’armement. Mais ils n’en ont pas été les moteurs.

Qui alors furent les auteurs de ce coup d’Etat ? Sont-ils encore actifs et dangereux aujourd’hui ? Pour Bacevitch, il s’agit essentiellement de ce que l’on appelle toujours les Faucons (The Hawks) au sein de l’administration civile et du Congrès, mais aussi au sein de l’armée. L’opération était prévue bien avant le 11 septembre 2001 et la survenance de l’attentat a été considérée comme une bénédiction (de là à supposer que cet attentat aurait été sinon organisé, du moins toléré par les dits Faucons, il n’y a qu’un pas). On connaît les principaux évènements ayant marqué le succès progressif du coup d’Etat, notamment la lutte menée par le vice-président Richard Cheney et le ministre de la défense Donald Rumsfeld pour marginaliser le Secrétaire d’Etat Colin Powell et la CIA de George Tenet. Mais ce que l’on sait moins, et que l’article de Bacevitch résume avec clarté, c’est la façon dont les prétendues menaces présentées par Saddam Hussein ont été exploitées à fond par le trio Cheney, Rumsfeld et Wolfowitz (aujourd’hui patron de la Banque Mondiale – sic-) pour servir de prétexte à l’invasion de l’Irak. Face à des parlementaires, diplomates et militaires qui se refusaient à cette aventure, les conjurés ont multiplié les menaces, dans la meilleure tradition du MacCarthisme. Les éléments raisonnables de l’administration civile et militaire ont été mis au pas ou remplacés par des éléments complices de l’espèce de conjuration qui se déroulait – sous l’autorité d’un George W. Bush sans doute dépassé au début mais qui a repris l’opération à son compte par la suite. Par ailleurs, comme on le sait, un contrôle policier sans précédent a été étendu à l’ensemble de la population.

La lecture du livre de Michael Gordon et du général Trainor complètera évidemment celle de l’article de Andrew Bacevitch. L’ouvrage nous fournit une mine de renseignements sur les évènements qui se sont produits, avant et après l’invasion de l’Irak, au cœur du système de pouvoir américain. La chronique est objective et sans passion, mais d’autant plus inquiétante. Les auteurs citent leurs multiples sources sur un ton objectif, sans pratiquement prendre parti. Ils montrent comment, dès la fin de la première guerre en Irak, les Faucons avaient délibérément refusé de voir les faiblesses de ce qu’était devenu le pouvoir de Saddam Hussein. Ce qui les a logiquement conduit à méconnaître l’essentiel de la résistance toute différente qu’ils allaient rencontrer, celles des milices, des religieux et plus généralement des différentes composantes du peuple Irakien. Les auteurs ne cachent rien non plus des erreurs répétés du haut commandement, enfermé dans ses certitudes ou uniquement soucieux de faire carrière en obéissant sans broncher aux ordres les plus aberrants. Le Général Frank est dépeint comme incompétent et faible de caractère, d’autres généraux tels Richard Myers et Eric Shinseki ne sont guère mieux lotis. Leur incompréhension de la nature réelle du conflit, due à leur méconnaissance absolue du Moyen Orient en général et de l’Irak en particulier, n’a pas cessé de provoquer des dégâts dont l’enlisement actuel n’est qu’un des aspects.

Aujourd’hui, malgré les multiples fautes accumulés et les résultats désastreux enregistrés, il est préoccupant de voir que les vainqueurs du « coup d’Etat » bureaucratique initial sont toujours au pouvoir à Washington et qu’aucune relève plus démocratique ne semble se profiler. D’où la méfiance accrue avec laquelle l’Europe, la Russie et le reste du monde devraient considérer les initiatives que pourraient encore prendre cette bureaucratie pour restaurer son crédit, notamment à l’égard de l’Iran. Malgré les apparences, Condi Rice n’a rien retiré du soutien donné par elle et par le Président à ceux qui ont présenté la guerre en Irak comme nécessaire, salutaire et dépourvue de graves erreurs de jugement. Les bénéficiaires du Coup d’Etat initial tiennent toujours les leviers de commande. Or quand ce qu’il faut bien appeler une clique de cette nature a pris le pouvoir, il est difficile d’espérer l’en chasser, sauf à l’occasion d’une crise systémique. Surtout quand des forces sociales nombreuses et bien implantées, notamment dans les Etats conservateurs religieux, la soutiennent. On peut craindre que le livre courageux de Gordon et Trainor ait peu d’effets en ce sens.

Certes, le fait que sa publication ait été tolérée par l’establishment militaire peut apparaître comme un signe de changement. En effet, Michaël Gordon avait été un reporter incorporé, « embedded », dans des unités terrestres, et il a du, de même que le général Trainor, bénéficier d’encouragements d’une partie de la hiérarchie militaire. On sait en effet qu’aujourd’hui, l’armée de terre parait de plus en plus réservée sur la suite à donner au conflit. Mais l’armée de l’air et la marine, gros consommateurs de matériels sophistiqués, semblent au contraire continuer à pousser aux affrontements. Le succès représenté par la mort de Al Zerkaoui, tué par une bombe guidée laser, ira évidemment dans leur sens. La "détente" enregistrée dans les rapports avec l'Iran ne sera peut-être que passagère.

Aussi le livre devrait-il alerter les Européens – notamment les Britanniques - qui continuent à suivre bon an mal an le grand allié américain dans tous ses dévoiements. Plus que jamais, il serait nécessaire de définir une politique au Moyen Orient sur la base d’un multilatéralisme où la diplomatie européenne aurait toute sa place et toute son autonomie. On en est encore loin, même si le haut-représentant européen Javier Solana fait montre actuellement de beaucoup d'efficacité vis-à-vis de l'Iran. 11/06/06.


Le Maire de Paris et Ségolène

Le Maire de Paris a tort de faire de l'ironie sur Ségolène Royal. On va penser qu'il n'aime pas les femmes. 10/06/06


La puce VeriChip et les immigrants mexicains aux Etats-Unis

Scott Silverman, président du conseil d'administration de VeriChip Corporation, fabricant de la puce à radiofréquence VeriChip, a proposé récemment sur Fox News d’implanter de telles puces dans le corps des immigrés et travailleurs saisonniers entrant sur le territoire américain. Cette proposition est venue après que le Président Bush ait réclamé des mesures de haute technologie afin de mieux contrôler l’immigration mexicaine et latino-américaine aux Etats-Unis. Le Président a dit souhaiter savoir avec précision « qui est dans notre pays et pourquoi il s’y trouve ». La VeriChip, convenablement chargée en informations de police lors du passage de l’immigrant à la frontière, permettrait d’identifier celui-ci avec précision lors de contrôles ultérieurs.

La VeriChip est une micro-puce d'identification par radiofréquence encapsulée dans du verre, qui peut être implantée, non seulement dans une multitude d’objets de la vie courante, mais sur des êtres vivants, animaux d’élevage et humains. Elle rentre dans la catégorie des RFID ou Radio-Frequency Identification Devices. La puce peut enregistrer environ 2000 bits d’information et dispose d’une antenne. Contrairement à la version dite active disposant d’une petite batterie incorporée capable d’émettre vers un récepteur distant, la version passive se borne à réagir à un détecteur, situé à un mètre de distance (quelques mètres pour les dispositifs à haute fréquence). Son usage est celui d’une étiquette à code barre. Elle permet, à condition d’être scannée, d’identifier en toute sécurité l’objet ou la personne qui en est porteur. Mais son efficacité est plus grande que celle du code barre, car elle n’a pas besoin d’être positionnée avec précision sous le scanner.

La technologie était connue depuis longtemps, mais le manque de normes communes a empêché sa diffusion. Elle était principalement utilisée au service de la sécurité interne de certaines entreprises soucieuses d’un haut niveau de protection. Aujourd’hui, le dispositif est au contraire en train de prendre une extension mondiale, notamment en Asie, ce qui permet d’abaisser fortement ses coûts, et d’améliorer sa fiabilité. Malgré cela, des incidents de lecture peuvent se produire, dus soit à la présence de lecteurs opérant simultanément (reader collision) soit à la présence d’un trop grand nombre de puces dans l’aire d’activité d’un lecteur (tag collision).

La proposition du patron de VeriChip a fait comme on pouvait le prévoir réagir les défenseurs des libertés individuelles aux Etats-Unis. Ceux-ci ont affirmé que la VeriChip Corporation, après avoir perdu des millions de dollars en essayant de persuader les autorités américaines d’implanter des puces chez les citoyens américains, profite de la peur suscité par l’immigration mexicaine et sud-américaine pour relancer le marché. Mais une fois utilisée chez les immigrants, la technique pourra plus facilement être généralisée au « bénéfice » de l’ensemble de la population. Cette proposition, rencontre l’approbation de nombreuses personnalités politiques américaines, qui envisagent divers usages intéressant les citoyens américains eux-mêmes, au-delà des cas médicaux où elle est d’ores et déjà autorisée par la loi: identification des militaires, des détenus, de certains enfants à problèmes. Elle avait par ailleurs été recommandée par le Président colombien Alvaro Uribe, qui voyait là le juste prix à payer pour que ses compatriotes puissent profiter de l’ »hospitalité américaine ».

La technologie des RFID, passives ou actives, se développe rapidement en Europe. Mais jusqu’ici personne n’a proposé de l’utiliser sous forme d’implants humains, sauf dans des cas thérapeutiques très spéciaux. On peut penser que cette perspective serait repoussée par l’opinion publique européenne, mais en fait rien n’est moins certain. 10/06/06

* Voir Technovelgy.com. Comment la science-fiction devient science http://www.technovelgy.com


Les rubriques ci-dessous ont été publiées sur notre blog à la date du 10 juin (Gazette N° 142-2) . Vous pouvez réagir
http://gazetadmiroutes.over-blog.com/article-2971033.html


Le Bulletin de L'Information Scientifique et l'association ANAIS

Rappelons le rôle important que joue l'association ANAIS dans la lutte contre l'envahissement des sciences par les mythologies et religions diverses, pour qui la rationalité scientifique est l'ennemi. ANAIS est l’ Association Nantes-Atlantique pour l’Information Scientifique (anais – afis http://afis44.free.fr/). Elle publie un Bulletin périodique dit Bulletin de l'Information scientifique dont on peut retrouver les sommaires sur http://afis44.free.fr/bulletins.htm . Selon ses propres termes:
"L'Association ANAIS fonde son activité sur la déclaration de principes de l’Association Française pour l’Information Scientifique dont elle forme un comité local. C’est ainsi que nous entendons notamment dans nos bulletins, tout comme les médias nationaux de l’association (la revue Science et pseudo-sciences, le site pseudo-sciences.org http://pseudo-sciences.org :
- retenir dans l'actualité scientifique et technique, un certain nombre de faits pour en considérer d'abord la signification humaine,
- diffuser une information scientifique constituée de nouvelles d'actualité dans toutes les branches de la recherche, dans un langage accessible à tous,
- dénoncer sans réserve les marchands de fausses ou de pseudo-sciences et les charlatans malfaisants pourvoyeurs de l'irrationnel,
- défendre l'esprit scientifique contre la menace d'un nouvel obscurantisme...."

Le dernier bulletin, daté de Juin 2006 et consacré aux nanotechnologies, s'en prend avec une vigueur que nous ne pouvons qu'approuver à l'alter-internet. Celui-ci se mobilise actuellement contre les nanotechnologies, d'une façon manifestement irresponsable - ou plutôt, dirais-je, d'une façon très habile permettant de faire parler de soi et de se donner de l'importance alors que l'on n'a rien à dire. J'extrais de l'éditorial les passages suivants:

"L’alter-internet s’affole une fois de plus pour «un appel à la convergence des luttes anti-nucléaires, anti-OGM et anti-nanotechnologies», pour la fermeture du complexe de recherche MINATEC qui vient d’être inauguré à Grenoble, et pour établir un « moratoire contre les nanotechnologies » …
Mais qu’est-ce qu’« ils » peuvent bien avoir cette fois-ci contre les nanotechnologies ? D’emblée le terrain est bien balisé par les recettes qui ont fait leurs preuves avec le nucléaire et les OGM : 1) c’est peut-être bien dangereux pour la santé et l’environnement 2) il n’y a pas eu de débat démocratique pour nous demander notre avis 3) si le complexe militaro-industriel et les multinationales s’y intéressent c’est donc que nous avons bien raison de nous méfier 4) de toutes façons « ils », les élites politiques et techniques autoproclamées, nous mentent...
Nous devons quand même réserver une mention spéciale au communiqué national des Verts. Si nous ne pouvons qu’être d’accord avec la phrase conclusive "Non, la science à elle seule ne suffit pas à apporter le bonheur à l’humanité. " nous ne pouvons que nous étonner si ce n’est nous insurger devant le paragraphe introductif, destiné à l’accroche et au formatage préalable ( générant des inférences mêlant peur et réprobation) du lecteur, qui affirme que « depuis Auschwitz et Hiroshima, on sait que les progrès scientifiques introduisent de nouveaux risques et peuvent être mis au service de la pire barbarie. »...
Contrairement à ce que suggère le communiqué national des Verts il n’a pas fallu attendre le vingtième siècle pour voir homo sapiens mobiliser l’ensemble de ses savoirs et savoir faire pour faire la guerre à son voisin. Au plus loin que l’archéologie nous renseigne, la taille des premiers outils est associée aussi bien à faciliter la vie de tous les jours qu’à s’assurer un avantage littéralement fracassant sur ses voisins … et cette dualité, autant que l’histoire nous renseigne, est constante … Force aussi est de constater que si les préoccupations de rapport de forces (dans la dialectique de la défense et de l’attaque) ont contribué de façon constante à motiver (et financer) les travaux sur la ligne de front des avancées technologiques, les décennies et siècles passant, le front technologique de nos savoirs et savoir faire avançant, l’acceptation sociétale devant la nouveauté progressant, ne subsistent plus que les avantages objectifs au bénéfice des populations..."


Bref, les quelques euros d'adhésion à l'AFIS ne seront pas selon nous de l'argent perdu. 10/06/06


L'indispensable dialogue anglo-français (ou franco-britannique)

Il est très bon que le Premier britannique Tony Blair et le Président Chirac se rencontrent ce jour pour parler des possibles convergences de propositions entre la Grande Bratagne et la France, sur des points essentiels, intéressant non seulement ces deux pays mais le renforcement de l'Union européenne. Il est évident en effet que, au moins dans les mots (mais les mots sont importants) les deux pays peuvent se retrouver pour promouvoir une défense européenne en propre (hors Otan), une action d'envergure en faveur de la lutte contre l'effet de serre et le développement des énergies de substituion au pétrole. Sur la question majeure de la lutte contre le réchauffement, le constat franco-britannique converge : un réchauffement non maîtrisé aurait des effets «dévastateurs», la limite acceptable ne permettant pas une élévation de plus de 2 degrés. Cela suppose un accord sur l'intensification de la politique européenne en matière d'efficacité énergétique. Paris et Londres entendent faire avancer de concert, à Bruxelles notamment, des questions comme le marché des taux d'émissions de C02 ou la politique des transports, pour développer la voiture électrique, le moteur hybride ou le ferroutage. Jacques Chirac et Tony Blair rappelleront également leur proposition de faire converger les taux d'émissions de gaz à effet de serre autour d'un taux moyen mondial fixé en fonction des performances économiques.

Les deux dirigeants sont sur le départ, ce qui peut enlever de la portée à leurs déclarations. Celles-ci supposeront par ailleurs, pour devenir concrètes, d'importants effor