Vers le site Automates Intelilgents
La Revue mensuelle n° 86
Robotique, vie artificielle, réalité virtuelle

Information, réflexion, discussion
logo admiroutes

Tous les numéros


Archives
(classement par rubriques)

Image animée
 Dans La Revue
 

Retour au sommaire

ACTUALIT
ÉS

Automates Intelligents s'enrichit du logiciel Alexandria.
Double-cliquez sur chaque mot de cette page et s'afficheront alors définitions, synonymes et expressions constituées de ce mot. Une fenêtre déroulante permet aussi d'accéder à la définition du mot dans une autre langue (22 langues sont disponibles, dont le Japonais).

 

Séminaire de recherche sur le coût écologique des agrocarburants
Jean-Paul Baquiast 05/02/2008

Une cinquantaine de chercheurs ont participé à Grenoble, les 28 et 29 janvier, à un séminaire intitulé « Agrocarburants et développement durable ». Ce séminaire était organisé par le ministère de l’écologie. Les conclusions, qui malheureusement ne figurent pas à ce jour sur le site du ministère, sont globalement pessimistes. Que ce soit dans nos régions ou dans les pays tropicaux, les rendements en C02 économisé sont généralement marginaux. Par contre, les coûts environnementaux divers sont considérables. Il apparaît bien maintenant que le soutien à la production des agrocarburants a été donné par les gouvernements pour s’attirer les faveurs des lobbies de céréaliers, sucriers, oléoproducteurs.

Des filières plus « intelligentes » dites de 2e génération utilisant la dégradation des biomasses et déchets par divers agents biologiques ou nanotechnologiques, seraient sans doute plus productives. Encore ne faudrait-il pas, à nouveau, détruire les végétations naturelles pour produire biomasses et déchets. Ce sont des algues, du type de celles qui poussent abondamment dans les marécages d'eau salée ou saumâtre, qui semblent offrir la meilleure solution. On a estimé que 10 millions d'hectares de tels marécages pourraient suffire à satisfaire les besoins actuels des Etats-Unis en carburant pour véhicules. Encore faut-il les trouver. La meilleure façon de lutter contre le C02 reste donc bien la limitation de la consommation d’énergie.

* http://www.ecologie.gouv.fr/-Developpement-durable-.html


Actualité du quorum sensing
Jean-Paul Baquiast 11/01/2008

Nous avions précédemment signalé (http://www.automatesintelligents.com/actu/030129_actu.html#actu5) l'importance de la découverte du phénomène dit quorum sensing par lequel les bactéries communiquent entre elles et, notamment, se mettent d'accord, quand elles sont en nombre suffisant, pour déclencher une invasion massive de l'hôte infecté, submergeant ses défenses immunitaires.

Sous le titre de "Learning the Language of Bacteria" (numéro de novembre 2007 de l'American Chemical Society (Biology)), des scientifiques britanniques annoncent avoir découvert le moyen de contrer le langage chimique qu'utilisent à cette fin les bactéries. Ceci pourrait conduire à des progrès dans la lutte contre les bactéries antibio-résistantes qui se développent actuellement de façon inquiétante (dites super-bugs dans le monde anglo-saxon).

Les chercheurs David Spring, Martin Welch et James T. Hodgkinson décrivent les composants qu'ils ont identifiés comme susceptibles de freiner les échanges entre bactéries responsables du quorum sensing ou d'autres activités collectives comme la formation de bio-films (photo). Il s'agirait d'une famille appelée N-acylated homoserine lactone (AHL). Affaire à suivre donc.


Les recherches sur les systèmes complexes
Jean-Paul Baquiast - Christophe Jacquemin
23/12/2007

Les recherches sur les systèmes complexes sont dorénavant incontournables. Dès la création de notre revue en 2000 nous avions signalé qu’elles auraient dû être prises au sérieux en France bien plus qu’elles ne l’étaient alors. Il est vrai que le concept de système complexe est difficile à définir(1). N’importe quel esprit aux capacités de formalisation réduites et au vocabulaire embarrassé pourra, avec un peu de culot, prétendre qu’il travaille dans la complexité.

Il existe cependant depuis longtemps une référence souvent citée mais mal imitée, le Santa Fe Institute américain. Il s’agit d’une fondation privée non-profit. Elle dispose d’un budget non négligeable, 7 millions de dollars, dont la moitié provient de donations et l’autre de concours publics. Les thèmes de recherches et les formations sont définis annuellement d’une façon assez ouverte, afin de ne pas exclure les idées originales mais peu reconnues.

En France, un Institut rhônalpin des systèmes complexes (IXXI) a été crée dans le même esprit il y a un an. Son budget est de 300.000 euros provenant du CNRS, de l’Institut de Recherche pour le Développement, de l’Inria et de quelques universités de la région. Mais il existe aussi un Institut des Systèmes Complexes de Paris-Ile de France (ISCPIF) et un Réseau National des Systèmes Complexes (RNSC) regroupant les précédents et d’autres Instituts, dont l’Inserm. Au total, il semble que 500 chercheurs soient aujourd’hui affectés à divers projets visant à réaliser, notamment, des systèmes complexes adaptatifs.

D'autres Instituts existent ou sont en voie de création en Europe, notamment aux Pays-Bas et en Italie. Entre 2003 et 2006, la Commission européenne aurait alloué 100 millions d'euros à ce domaine, ce qui cesse d’être négligeable.

Regrettons cependant que les travaux et les résultats soient encore trop peu connus. Sans doute pour la raison évoquée en début d’article : peu de gens comprennent ce que cache le concept et quelles sont ses applications pratiques. On ne peut que regretter, par ailleurs, que les scientifiques ayant développé de véritables systèmes multi-agents auto-adaptatifs, comme Alain Cardon en matière de conscience artificielle, ou d'autres de ses collègues du LIP6 et d'ailleurs, n'aient soit jamais pu être financés, soit été privés de financement et contraints de s'exporter.

(1) NDLR : si de nombreux systèmes sont constitués d'un grand nombre d'entités en interaction, on les qualifie de complexes lorsqu'un observateur ne peut prévoir le comportement ou l'évolution d'un tel système par un raccourci de calcul. Malgré une connaissance parfaite des composants élémentaires d'un système, il est impossible de prévoir son comportement, autrement que par l'expérience ou la simulation. Que l'on étudie par exemple le changement climatique, le réseau des transports urbains, en passant par les maladies infectieuses ou la génétique des populations, tous ces systèmes mettent en jeu de nombreuses composantes dont les interactions génèrent des propriétés ou phénomènes nouveaux - qu'on appelle "émergents" - que les modèles mathématiques traditionnels sont impuissants à décrire.

 


Qu'est-ce qu'un système complexe ?
(tiré de http://rnsc.csregistry.org)

Les systèmes complexes, depuis la cellule jusqu'à l'écosphère, résultent de processus d'évolution et d'adaptation. Ils présentent des propriétés émergentes : le niveau microscopique sous-jacent fait émerger des formes organisées au niveau macroscopique, lequel influence en retour le niveau microscopique. Ces propriétés émergentes sont robustes et peuvent être étudiées de différents points de vue, selon la classe de systèmes adaptatifs complexes considérée.

L'apport des disciplines formelles pour la modélisation des systèmes complexes, qu'ils soient naturels ou artificiels, est considérable. Que serait la modélisation des systèmes complexes sans les transitions de phase, la renormalisation, les états critiques auto-organisés de la physique statistique, sans les systèmes dynamiques des mathématiques et sans les systèmes discrets ou les automates cellulaires de l'informatique ?

La compréhension des systèmes adaptatifs complexes passe par leur modélisation. Certes leurs modèles sont doublement contraints selon les règles habituelles de la science : d'une part, ils doivent être les plus parcimonieux possibles, avec un contenu théorique intelligible ; d'autre part, ils doivent fournir une reconstruction de l'ensemble des données provenant de l'observation de ces systèmes. Mais la nouveauté vient de la quantité des données accumulées sur les systèmes complexes qui connaît une expansion aujourd'hui très rapide, non seulement sous forme de données numériques en 1D mais aussi d'images en 2D et 3D. Dans ce flux croissant de données, il s'agit de repérer les patterns spatiaux-temporels à soumettre aux reconstructions rationnelles de la modélisation et de la simulation. Cette reconstruction met en oeuvre des méthodes inductives de plus en plus sophistiquées avec l'aide de moyens computationnels puissants. Cette activité de reconstruction est par nature interdisciplinaire, associant chaque discipline directement concernée avec des spécialistes venant des disciplines formelles, mathématiques, informatiques et physiques.

C'est dans cet aller-retour entre l'acquisition de données sur la base d'hypothèses modélisatrices et leur reconstruction par la modélisation qu'une science des systèmes complexes peut se développer. Les systèmes complexes sont des objets intrinsèquement pluridisciplinaires. Pour un même objet, ce sont des théories différentes et hétérogènes qui peuvent en rendre compte : les activités neuronales peuvent être pensées à la fois comme des équations dynamiques et comme structure logique d'un contenu. Il reste beaucoup à faire au plan théorique, sur la base des avancées du siècle passé, pour avoir les concepts et les modèles qui fournissent des explications élégantes aux phénomènes émergents.

 

Pour en savoir plus
http://www.ixxi.fr/
http://iscpif.csregistry.org/tiki-index.php
http://rnsc.csregistry.org/tiki-index.php
http://www.santafe.edu/


L'apport des nanotechnologies dans la réalisation de vaisseaux sanguins artificiels par croissance contrôlée
Christophe Jacquemin - 21/12/07

La fabrication de vaisseaux sanguins artificiels en grande quantité est une étape importante dans le futur pour la mise au point d'organes fortement vascularisés, métaboliques et complexes comme les reins, le foie et le coeur. Mais si de nombreuses techniques sont employées pour contrôler la croissance de structures vasculaires organisées aussi bien in vivo qu'in vitro, très peu d'entres elles permettent de définir précisément leur direction de propagation.

Le problème semble aujourd'hui bien avancé grâce aux travaux(1) d'une équipe scientifique groupant le Charles Stark Draper Laboratory (Cambridge, MA), le MIT (Cambridge, MA) et la John Hopkins University (Baltimore, MD). Avec le renfort des nanotechnologies, ces chercheurs ont en effet montré la possibilité de forcer des cellules à former des structures tubulaires qui possèdent les mêmes propriétés physiques que les vaisseaux sanguins.
Leur technique consiste à faciliter l'organisation de cellules PEC (Progéniteurs Endothéliaux Circulants) en ligne en les déposant sur un substrat de silicium sur lequel on a formé par gravure plasma des rainures parallèles. Le dépôt d'un gel (BD Matrigel Matrix) sur les cellules disposées en ligne permet ensuite la formation de tubes capillaires.

L'étude d'échantillons réalisés sur un substrat plat et sur un substrat nanostructuré montre que les tubes formés aléatoirement sur le substrat plat ont une longueur moyenne de 140 micro-mètres alors que les tubes formés en parallèle à l'aide des nanostructures ont une longueur moyenne de 400 micro-mètres. La croissance de vaisseaux sanguins artificiels sur une surface nanostructurée permet donc aux chercheurs un meilleur degré de contrôle par rapport aux techniques classiques qui sont bien plus aléatoires.



A gauche : croissance sur substrat plat
A droite : croissance sur substrat nanostructuré
Images : Christopher Bettinger

Soulignons que ces travaux - encore en amont - font désormais rêver les chercheurs d'une prochaine étape : l'intégration de tubes capillaires poussés en laboratoire aux tissus d'animaux vivants.

(1) Avanced Materials, 11/12/2007 :"Enhancement of In Vitro Capillary Tube Formation by Substrate Nanotopography", par C. J. Bettinger , Z. Zhang , S. Gerecht , J.T. Borenstein et R. Langer.

Pour en savoir plus
Site du MIT : http://web.mit.edu/newsoffice/2007/vascular-1217.html


Le Blue Brain Project annonce avoir atteint une étape importantre
Jean-Paul Baquiast et Christophe Jacquemin 20/12/07


Nous avions relaté en son temps(1) le lancement d'un projet associant IBM et l'Ecole Polytechnique Fédérale de Lausanne, en vue de développer un modèle du cortex cérébral en utilisant le supercalculateur Blue Gene. Le projet, inauguré en juillet 2005, aurait atteint aujourd'hui, selon ses responsables, un premier stade décisif. Il se traduit par la production d'un modèle de ce que l'on considère comme l'unité fonctionnelle de base du cerveau, la colonne néo-corticale. Le modèle pourrait reconstruire à la demande un réseau de neurones et leurs 30 millions de synapses représentés en 3 dimensions. Le modèle a été construit en rassemblant des données expérimentales de 15 années concernant la morphologie, l'expression des gènes, les canaux ioniques la connectivité synaptique et des enregistrements electrophysiologiques de cerveaux de rats. Des outils logiciels ont été développés pour utiliser ces données et reconstruire une représentation précise de la partie du cortex concernée.

Henry Markram, codirecteur du Brain Mind Institute de l'Ecole Polytechnique Fédérale de Lausanne et responsable du projet, estime qu'à partir de cette étape importante, constituant une véritable "rétro-ingénierie du cerveau", il devrait être possible de réaliser progressivement un cerveau plus complet. Ce travail pourrait dans un premier temps aider à comprendre, voire soigner, certaines pathologies cérébrales. Il sera présenté à la conférence de la Fédération européenne des neurosciences à Genève en juillet 2008.

Une telle approche analytique des fonctions du cerveau, on le sait, est souvent contestée. Les tenants de l'approche globale ou holiste estiment qu'elle ne permet pas de simuler le cerveau en situation, au sein du corps d'abord et de l'environnement ensuite. Par ailleurs, le modèle ne reprend que des observations nécessairement limitées et même biaisées faites précédemment, de façon souvent sommaire ou traduisant le point de vue a priori de l'observateur.
Nous pensons pour notre part que différentes voies peuvent utilement être poursuivies pour mieux comprendre le cerveau et ses fonctions cérébrales, depuis celle décrite ici - mais qui trouverait à notre avis avantage à inclure dans sa formalisation le cadre théorique des interactions fonctionnelles de Gilbert Chauvet(2), voire aussi des simulations informatiques à partir de systèmes d'agents évolutionnaires s'auto-organisant librement(3).

(1) Voir notre actualité du 19 juin 2005 : Reconstruction du cerveau " silico"..
(2) Cf.notre interview du professeur Gilbert Chauvet du 15 mai 2006.
(3) Voir par exemple l'ouvrage d'Alain Cardon "Modéliser et concevoir une machine pensante - Approche de la conscience artificielle" ainsi que sa conférence (voir la vidéo) lors du Congrès "Physique et conscience"(9 et 10 décembre 2005).

Pour en savoir plus
Site du projet : http://bluebrain.epfl.ch/


Eric Drexler publie une feuille de route pour la production industrielle de nanosystèmes
Jean-Paul Baquiast 17/12/07

Eric Drexler : Productive Nanosystems - A technology roadmapEric Drexler, le père des nanotechnologies, vient de publier sur son site personnel une ambitieuse "feuille de route'" (le mot est à la mode) pour la réalisation à grande échelle de nanosystèmes destinés à opérer dans tous les domaines de la production. C'est la "Technology Roadmap for Productive Nanosystems". L'objectif poursuivi vise à explorer la façon dont les techniques courantes de laboratoires peuvent être utilisées pour construire pas à pas des produits et fonctions de plus en plus sophistiqués.

L'étude a été conduite par le Battelle Memorial Institute, une organisation non-profit rassemblant un ensemble de grands laboratoires américains, dont Pacific Northwest, Oak Ridge et Brookhaven. Elle a rassemblé 70 experts, scientifiques et ingénieurs, provenant de l'université, de l'industrie et des laboratoires nationaux.

Une série de groupes de travail a été lancée en 2005, dont est issu le rapport final de 400 pages. Ce rapport présente un l'état de l'art de la nano-ingénierie et présente des propositions intéressant aussi bien des réalisations à court terme que des projets de recherche à long terme.

Eric Drexler estime que le rapport arrive à point nommé. Le Conseil National de la Recherche (U.S. National Research Council) avait validé les orientations qu'il avait proposées dans sa propre étude ( Nanosystems: Molecular Machinery, Manufacturing, and Computation) laquelle se terminait par un appel à des recherches expérimentales concernant l'ingénierie moléculaire. A la suite de quoi la Darpa (Pentagone) avait lancé un appel à propositions pour la réalisation de nano-objets précis à l'atome près. Le gouvernement britannique, de son côté, avait offert des crédits de recherche à des équipes capable de fabriquer des matériaux molécule par molécule.

En dehors des perspectives et directions qu'elle propose, la Feuille de route recommande des techniques permettant d'évaluer les projets les plus aptes à faire émerger le domaine encore trop expérimental de la nano-ingénierie atomique. Une des directions les plus prometteuses sera la possibilité d'intégrer divers approches dans des systèmes fonctionnels exploitant les découvertes récentes en matière de structures génétiques (DNA) auto-organisatrices à l'échelle de l'atome.

Eric Drexler se dit persuadé qu'en dehors des applications qui seront données à ces propositions aux Etats-Unis, les pays asiatiques à la recherche de perspectives à long terme ne manqueront pas de s'y intéresser.

Pour ce qui concerne l'Europe et la France en particulier, des crédits publics de recherche existent. Mais comme toujours en pareil cas, les industriels susceptibles d'utiliser ces crédits localement (sans se délocaliser) ne se présentent pas ou ne parviennent pas à s'entendre. C'est ainsi qu'au sein du pôle Minatec, le site de Crolles2 inauguré par Jacques Chirac en mars 2003 et présenté comme un «accord historique » entre Freescale (Motorola), Philips et STMicroelectronics pour la fabrication de composants électroniques avancés ne doit sa survie temporaire qu'à la participation de fonds d'investissement américains dont le principal objectif est le pillage technologique.

Pour en savoir plus
La feuille de route : http://e-drexler.com/p/07/00/1204TechnologyRoadmap.html
Sur Crolles2, lire l'appel de « Sauvons la Recherche » : http://www.sauvonslarecherche.fr/IMG/doc/ComPresseCROLLE2.doc


Décès de Gilbert Chauvet, père de la physiologie intégrative
06/12/07

Gilbert ChauvetNadine Rocard-Chauvet, son épouse

Pierre, Anne et Line, ses enfants
et toute la famille

ses collaborateurs et tous ses amis

ont la tristesse de vous faire part du décès, le 6 décembre du

Professeur Gilbert CHAUVET
Docteur es-Sciences - Docteur en Médecine
père de la Physiologie Intégrative

survenu le 6 décembre 2007

Le recueillement aura lieu au crématorium du Père-Lachaise, le mercredi 12 décembre à
13h30

24, rue Saint Martin
75004 Paris
www.gilbert-chauvet.com

A lire :
Interviews:
- Gilbert Chauvet, théoricien en physiologie intégrative(2006) ;
- Gilbert Chauvet, physiologiste intégrateur (2002).


Lancement de la navette spatiale chinoise habitée « Shenzhou VII » prévu pour octobre prochain
C.Jacquemin. - 04/12/07

Affiche célébrant les vols spatiaux habités chinois Après la Russie et les Etats-Unis, la chine est aujourd'hui la troisième puissance spatiale capable d'envoyer un homme dans l'espace par ses propres moyens. Elle prévoit son troisième vol habité* pour octobre 2008. La nouveauté sera ici deux à trois sorties extravéhiculaires d'au moins un des trois occupants, une première pour ce pays, qui devrait préfigurer à plus long terme l'assemblage d'une future station spatiale en orbite autour de la Terre. Serait par ailleurs visé, début 2009, le rendez-vous et l'amarrage de Shenzhou VIII avec un autre satellite.

Peu avant la présente sortie dans l'espace, devrait être libéré en orbite un nanosatellites auxiliaire (de la taille d'un ballon de football) pouvant être télécommandé au choix depuis le vaisseau ou depuis la Terre. Equipé de caméras et de moteurs, il permettra de visualiser le travail du taikonaute** sous un angle idéal. Les combinaisons utilisées seront similaires à celles des Russes et des Américains. Elles protégeront les astronautes des micrométéorites et intégreront un système de régulation de la température et de la pression. Les gants seront ici scellés au reste de la combinaison, mais seront flexibles. Le pack dorsal des scaphandres chinois serait équipé de systèmes de commandes et de communications, qui incluent un dispositif de propulsion intégré permettant au marcheur spatial de s'orienter et de se diriger. Une fois dans l'espace, les taïkonautes seront constamment attachés à un câble relié au vaisseau.

Pour Ma Xingrui - chef adjoint du groupe chargé de la direction du projet d'exploration lunaire et Directeur Général de China Aerospace Science and Technology Corporation (CASC) - les difficultés techniques que peut poser une sortie dans l'espace sont déjà surmontées. Selon ses déclarations, la réalisation du vaisseau dans son ensemble est d'ores et déjà dans sa phase d'expertise générale et l'assemblage final de la fusée porteuse Changzheng-2F utilisée pour le lancement sera achevée avant la fin de ce mois.Toujours selon Ma Xingrui, " la Chine a fait des percées scientifiques importantes quant à plusieurs technologies clés de la nouvelle génération de fusée porteuse chinoise."

Rappelons que les fusées porteuses de la série Changzheng (Longue marche) ont été utilisées jusqu'à présent pour 104 lancements de satellites ou d'engins spatiaux et lque e taux de réussite de lancement dépasse 90%.
Signalons aussi que les travaux de réalisation de la base industrielle de construction de la nouvelle génération de fusées porteuses chinoises ont démarré dernièrement à Tianjin, grande métropole économique de la Chine du Nord Est.

* La Chine a réussi son premier vol habité "Shenshou V" le 15 octobre 2003, suivi, en 2005 de."Shenzhou VI" d'une durée de 5 jours.
** Nom chinois donné aux astronautes


Retour au sommaire