Vers le site Automates Intelilgents
La Revue mensuelle n° 86
Robotique, vie artificielle, réalité virtuelle

Information, réflexion, discussion
logo admiroutes

Tous les numéros


Archives
(classement par rubriques)

Image animée
 Dans La Revue
 

Retour au sommaire

Automates Intelligents s'enrichit du logiciel Alexandria.
Double-cliquez sur chaque mot de cette page et s'afficheront alors définitions, synonymes et expressions constituées de ce mot. Une fenêtre déroulante permet aussi d'accéder à la définition du mot dans une autre langue (22 langues sont disponibles, dont le Japonais).

Le calcul scientifique de haute performance
(High Performance Computing)

par Jean-Paul Baquiast 10/01/08


Nous avons signalé dans une chronique précédente la mise en place du programme européen PACE ou PRACE (Partnership for Advanced Computing in Europe) rassemblant 15 Etats et visant à réaliser un réseau de super-calculateurs atteignant des vitesses de calcul se situant du teraflops jusqu'au petaflops(1)

On pourrait s'imaginer que les calculateurs de cette puissance n'ont plus grande utilité, puisqu'il est théoriquement possible de mettre en réseau des milliers de micro-ordinateurs permettant d'aligner des capacités apparemment équivalentes. Mais il existe de grandes différences entre les performances de tels réseaux, à qui font défaut des connexions efficaces et un système d'exploitation centralisé performant. Les supercalculateurs restent donc indispensables à tout Etat ou groupe d'Etats désirant réaliser rapidement et à moindre coût des calculs indispensables à sa sécurité comme au développement des sciences dont il a besoin tant dans la concurrence internationale que dans la coopération.

L'Europe s'en est aperçu, un peu tardivement. Elle dépend cruellement de matériels qu'elle ne produit pas ou n'assemble pas (sauf marginalement, en ce qui concerne la France, où le CEA s'équipe actuellement d'un supercalculateur Bull principalement dédié à la défense(2)). C'est comme l'on devine aux Etats-Unis et au Japon que se trouvent les industriels et les grands centres de calcul capables de fournir les prestations attendues tant par les scientifiques que par les militaires. Aux Etats-Unis, on se prépare maintenant la nouvelle génération de machines, dont l'augmentation considérable de puissance fera faire un bond en avant considérable aux recherches scientifiques.

Aujourd'hui, le calculateur le plus puissant du monde est l'IBM BlueGene/L installé au Lawrence Livermore National Laboratory qui dépend du département de l'Energie des Etats-Unis. En pointe, il réalise 596 trillions d'opérations par seconde. Les nouvelles machines, de l'ordre du pétaflop, équivaudront à la puissance installée de 100.000 PC. Selon les experts, un calcul qui demanderait 80 ans pour l'un de ces PC pourrait être réalisé en 5h sur un calculateur de la taille du Blue Gene/L et en moins de deux heures sur une machine de la taille supérieure.

La réalisation de ces monstres oblige à faire face à de nombreux défis, dont le moindre n'est pas la consommation électrique et la dissipation de chaleur. Le successeur de Blue Gene/L déjà baptisé du nom de "Roadrunner" sera développé par IBM en partenariat avec le Laboratoire national de Los Alamos dépendant lui aussi du département de l'Energie. Il consommera 4 megawatts de puissance électrique. Mais il permettra aussi d'éclairer, si l'on peut dire, des questions scientifiques demeurées encore obscures et aussi diverses que le changement climatique, les évolutions géologiques, les nouvelles molécules thérapeutiques et la matière noire.

La véritable difficulté, cependant, n'est pas directement liée à l'environnement de la machine ni même à la rapidité des composants électroniques qu'elle utilise. Elle se trouve dans l'aptitude des logiciels et des architectures programmatiques permettant de faire travailler ensemble des centaines de milliers de sous-ensembles multiples en les regroupant au mieux des problèmes complexes à résoudre. L'ingénierie logicielle apporte beaucoup de solutions standard mais ne peut remplacer entièrement le flair des programmeurs et ingénieurs systèmes travaillant en liaison avec ceux qui leur posent les « bonnes questions ».

Applications

La force des nouveaux calculateurs consiste à faire tourner des modèles numériques ou analogiques simulant des phénomènes de la nature inobservables directement, faute de temps, d'argent ou d'instruments adéquats. Le processus traditionnel de la recherche scientifique, supposant un échelonnement dans le temps de la théorie à l'hypothèse puis à l'expérimentation se trouve modifié. Plus exactement, l'expérimentation n'a plus besoin d'être conduite en vraie grandeur. Elle peut être remplacée par une simulation.

Les récentes prédictions scientifiques concernant le changement climatique qui ont servi d'argument pour la mise en place du protocole de Kyoto et de ses suites n'ont été rendues possibles que parce que la puissance de calcul affectée à leur production a été multipliée plus de 10.000 fois en quelques années. Alors que pendant longtemps les données satellitaires climatologiques et géophysiques ne pouvaient pas être traitées en temps utile par les laboratoires terrestres, aujourd'hui l'inverse se produit. Les satellites ayant vieilli ne fournissent plus assez de données ni assez rapidement pour répondre à la soif d'informations des modèles computationnels.

A l'opposé, les flots de données qui seront produites par le futur accélérateur LHC du CERN pourront en principe être traitées en temps réel, ce qui serait impossible actuellement. Encore faudrait-il que les scientifiques y travaillant puissent accéder à des calculateurs assez puissants, ce qui n'est pas garanti compte tenu du peu d'enthousiasme manifesté par les Etats-Unis pour fournir du temps de calcul dans des conditions satisfaisantes.

Dans le domaine tout différent de l'armement nucléaire, on sait depuis longtemps que les essais simulés ont rendu inutiles les tests en vraie grandeur. A cet égard, il n'était pas question pour la France de dépendre de la bonne volonté américaine. D'où l'acquisition du calculateur Bull de la direction des applications militaires du CEA précité (lequel offre aussi du temps à des équipes civiles).

La question de la disponibilité en puissance de calcul se posera également déjà dans la perspective du traitement des myriades de données qui seront nécessaires à la simulation des phénomènes se déroulant dans le cœur du futur réacteur à fusion ITER de Cadarache ou de ses enceintes. Il serait prudent de prévoir dès maintenant les ressources nécessaires.

Un autre domaine qui pourra se révéler encore plus vital, concernera la préparation d'un vaccin contre la grippe aviaire « hominisée » dès que celle-ci se déclarera (éventualité considérée comme inévitable). Les ressources d'un supercalculateur permettront de gagner de précieuses semaines dans l'analyse du virus et la mise au point de réponses adaptées.

Un nouveau calculateur au CNRS

Bonne nouvelle : au moment de finir cet article, nous apprenons que Le Centre national de la recherche scientifique (CNRS) va prochainement s’équiper d'une plate-forme de calcul intensif de 207 téraflops (3). L’organisme disposait jusqu'ici d'une puissance de calcul de 6,7 téraflops. Il se hisse ainsi au troisième rang mondial – hors calculateurs militaires –, derrière le département de l'Energie américain précité (596 téraflops) et le Forschungzentrum Jülich allemand (222 téraflops).

Conçue par IBM (nous eussions préféré Bull), la nouvelle machine se compose de deux blocs complémentaires : un ensemble de dix armoires Blue Gene/P, d'une puissance de 139 téraflops, qui sera installé à la fin du mois de janvier, et un groupe de huit modules Power 6, d'une capacité de 68 téraflops, livré au mois de juillet.

Installé au centre national de calcul du CNRS – l'Institut du développement et des ressources en informatique scientifique (Idris) –, à Orsay, le nouveau supercalculateur représente un investissement d'environ 25 millions d'euros, dont 5 millions seraient réservés à la maintenance de la machine. Celle-ci sera ouverte à tous les chercheurs, du secteur public ou des entreprises.

Dans 10 ans

Terminons par un regard sur la prochaine décennie. On ne doit pas croire que la limite du pétaflop tiendra longtemps. D'ores et déjà les ingénieurs étudient une machine mille fois plus puissante, capable d'un million de trilliards d'opération par seconde. Elle est prévue vers 2018. Il n'est pas risqué de parier qu'elle sera américaine. A moins que par miracle le programme PACE cité ci-dessus prenne rapidement un grand développement.

Notes :
(1) gigaflops = 1 milliard 1×10 puissance 9 flops ; teraflops = 1 trilliard ou 1×10 puissance 12 flops ; petaflops = 1 quadrilliard ou 1×10 puissance 15 flops, le flops désignant 1 opération élémentaire en virgule flottante réalisée par seconde (Floating-point Operations Per Second).
(2) Voir notre article "Projet d' Initiative pour des réseaux européens de calcul à haute performance" (26/12/05) http://www.automatesintelligents.com/echanges/2005/dec/calcul.html, ainsi que notre actualité du 01/08/06 : http://www.automatesintelligents.com/actu/060831_actu.html#actu0
(3) Cf communiqué du CNRS : http://www2.cnrs.fr/presse/communique/1259.htm

A lire aussi
Les super ordinateurs et la course au pétaflop (article du 02/03/04): http://www.automatesintelligents.com/labo/2004/mar/r.html


Retour au sommaire