Vers le site Automates Intelilgents
La Revue mensuelle n° 70
Robotique, vie artificielle, réalité virtuelle

Information, réflexion, discussion
logo admiroutes

Tous les numéros


Archives
(classement par rubriques)

Image animée


 

Retour au sommaire

Article
Projet d' « Initiative pour des réseaux européens de calcul à haute performance » 
Jean-Paul Baquiast et Christophe Jacquemin (26 décembre 2005)

Superordinateur Tera 10 du CEA

Le superordianteur Tera 10

Pas de souveraineté européenne sans puissance de calcul autonome

Introduction
L’idée se fait répand petit à petit que l’Europe n’atteindra jamais à l’indépendance politique, autrement dit à la souveraineté institutionnelle et diplomatique, sans souveraineté technologique et scientifique. Par ces mots on désigne la capacité de maîtriser en toute indépendance les technologies-clefs indispensables à la puissance. Certes l’Europe pourrait abandonner définitivement toute ambition à l’indépendance dans le domaine technologique, comme elle pourrait abandonner toute ambition de souveraineté politique. Mais dans un monde où les Etats-Unis sont plus que jamais résolus à assurer leur pouvoir par une domination technologique globale, dans un monde aussi où la Chine et l’Inde sont désormais résolus à leur disputer cette domination, l’Europe perdrait rapidement tout poids politique si elle ne relevait pas le gant à son tour.

En France, on associe depuis les premières années de la 5e République l’indépendance technologique à la détention de l’arme atomique, à la maîtrise du nucléaire civil et à la capacité de disposer de vecteurs spatiaux autonomes. Il s’agit effectivement de points clefs, plus que jamais nécessaires dans un monde qui sera sans doute multipolaire. Mais on a malheureusement oublié qu’en amont de ces capacités militaires et civiles et pour les obtenir se trouve la possibilité de disposer d’une puissance de calcul scientifique (que l’on désigne aujourd’hui par le terme de calcul haute performance) qui soit elle aussi indépendante des influences extérieures. Le président de Gaulle le savait bien, puisqu’il avait lancé précisément dans ce but en 1966/67 le Plan Calcul, destiné à doter non seulement la France mais ses alliés européens de grands ordinateurs de calcul scientifique et de gestion pouvant être conçus et utilisés en toute autonomie. Malheureusement ses successeurs n’ont pas compris qu’il s’agissait d’un élément indispensable à la souveraineté. Ils ont laissé se perdre la compétence industrielle obtenue à grand peine(1). Les autres gouvernements européens n’ont pas fait mieux. Ils ont refusé d’adopter des politiques technologiques capables de donner à l’Europe une place de leader dans les domaines de l’informatique, des réseaux et des logiciels.

On ne doit pas chercher loin la principale raison de cet aveuglement des hommes politiques et des industriels européens. Elle a été et demeure la conséquence de l’intense campagne de désinformation menée dans le monde entier pendant 30 ans par le pouvoir politique et économique américain. Cette campagne a réussi à persuader l’Europe qu’elle n’avait pas besoin d’informatique au prétexte que les entreprises américaines étaient les mieux capables de fournir matériels et logiciels au meilleurs prix et offrant la meilleure qualité possible. L’Amérique s’assurait ainsi durablement les clefs véritables de la puissance à long terme(2).

De cette dépendance acceptée par les Etats européens découlent les résultats que l’opinion européenne avertie commence à découvrir ou redécouvrir avec une certaine inquiétude, inquiétude encore bien timide alors qu’elle devrait en fait prendre la forme d’une alerte générale. Dans les technologies clefs de l’informatique, des réseaux, des logiciels, de la robotique et de l’intelligence artificielle, l’Europe ne dispose pratiquement plus d’industries, non plus que de laboratoires de recherche de niveau international. Ceci se paye évidemment en termes d’emplois de scientifiques et d’ingénieurs. Les jeunes s’intéressant à ces questions sont obligés de s’expatrier(3). Certes, les optimistes n’accepteront pas ce constat et feront valoir quelques résultats locaux intéressants. Globalement cependant le diagnostic est indiscutable. Dans le même temps, dans le cadre de politiques différentes mais avec une vigueur identique, la Chine, l’Inde et certains autres Etats émergents forment des ingénieurs par centaines de milliers, multiplient les innovations et les sites industriels.

Faut-il cependant désespérer des espoirs de souveraineté politique européenne, au motif que lui manquera de plus en plus cette arme de la guerre qui est la puissance informatique sous forme notamment de moyens de calcul haute performance indépendants ? Peut-être pas. Grâce une nouvelle fois à la France, et notamment aux générations d’ingénieurs informaticiens dédiées au sein du Commissariat à l’Energie Atomique, à la Délégation Générale à l’Armement et dans quelques grandes entreprises stratégiques à la préservation des moyens de simulation nécessaires à l’entretien de la force de dissuasion nucléaire, il a été possible de conserver une compétence humaine de grande valeur. L’idée semble commencer à naître que cette expérience pourrait être reprise et valorisée au bénéfice d’un renouveau de l’informatique scientifique, non seulement à finalités militaires mais surtout dans les domaines civils où la dépendance à l’égard de l’étranger est tout aussi dangereuse qu’elle le serait dans le domaine militaire. De plus, ce que nous pourrions appeler le modèle français pourrait être étendu à l’échelle européenne, en coopération avec la Commission et les Etats qui en son sein se décideraient à reconquérir une compétence de niveau international dans le domaine du calcul haute performance et de ses applications. Mais le mouvement reste encore bien timide, mal compris par la plupart des décideurs et parfaitement ignoré du grand public, c’est-à-dire finalement des électeurs et des contribuables.

Nous examinerons très sommairement dans cette note les trois clefs de ce renouveau : se donner les instruments d’observation nécessaires à la prise de conscience du retard stratégique accumulé depuis 30 ans – mettre en évidence, notamment pour l’opinion scientifique, les domaines des technologies européennes où s’impose la détention en propre d’une puissance informatique de niveau international – définir des cheminements permettant à l’Europe, dans une ambiance qui sera nécessairement celle d’un affrontement courtois mais sans pitié avec le reste du monde développé, de reconquérir les éléments de la puissance informatique qu’elle a laissé perdre(4).

A. Mesurer la dépendance

Les études récentes ne manquent pas pour alerter l’opinion sur la perte de compétence française et européenne dans le domaine essentiel de la puissance de calcul. Signalons :

- L’enquête de l’Académie (française) des Technologies : Enquête sur les frontières de la simulation numérique. Diagnostics et propositions. Ce rapport analyse l’importance de la simulation dans les principaux domaines industriels et scientifiques, mais souligne le manque de vision stratégique qui permettrait à la France de se doter des outils informatiques indispensables. Il formule des recommandations sur lesquelles nous reviendrons.

- Le Top 500 des super-calculateurs, selon lequel notre pays se retrouve en termes de puissance de calcul disponible au niveau de l’Espagne et de l’Italie, avec 2% l’ensemble du Top 500, le nombre de systèmes installés étant de 8 en 2005, soit 1,6 % du total) [voir notre article du 21/11/05]. On peut supposer que très probablement, certains grands calculateurs utilisés pour des objectifs de défense et de sécurité nationale ne sont pas mentionnés par les Etats qui les possèdent, au moins à leur niveau réel de puissance.

- Périodiquement, des économistes et de hauts fonctionnaires du secteur de l’administration technique ou de la recherche mettent en garde les ministres compétents ou les gouvernements sur les retards pris et sur les mesures qui selon eux s’imposeraient. Mais ces rapports restent peu connus des médias et du public.

- Ajoutons que régulièrement, malgré leur avance, les scientifiques américains, notamment au sein de la National Science Foundation et du National Research Council, déplorent le manque d’ambition des budgets de développements en très grands calculateurs et réseaux scientifiques, faisant valoir notamment le retard qui risque d’être pris à l’égard de la Chine. Evidemment, ils n’évoquent jamais leur dépendance possible à l’égard de …l’Europe, ce qui montre bien à quel niveau d’estime celle-ci est tenue. De tels rapports font apparaître, par défaut si l’on peut dire, les insuffisances européennes.

Toutes ces études, bien que précieuses, ne mesurent que faiblement la dépendance européenne. Il faudrait procéder à des analyses autrement plus difficiles, car relevant de l’Intelligence Economique. Elles mesureraient sans complaisance les pertes de compétences et de ressources économiques qu’enregistrent les grandes entreprises et les administrations européennes en faisant appel aux calculateurs scientifiques et aux logiciels associés non-européens : gaspillage de moyens, pertes directes de savoirs technologiques et humains, fuites indirectes multiples au profit des concurrents, sous-investissement techno-scientifiques du fait que l’on ne dispose pas ab initio des moyens nécessaires à la naissance des idées et à la mise en place des initiatives, manques à gagner ultérieurs en termes de chiffres d’affaires et de possibilités d’exportation.

Les Européens, exceptionnellement, ont fait de tels calculs pour justifier le lancement du programme de positionnement satellitaire Galiléo, destiné à leur permettre d’échapper au monopole du GPS américain (alors que beaucoup d’ « experts » expliquaient que celui-ci suffisait largement à l’Europe). On a pu montrer que, en période de croisière, Galiléo générera 9 mds d’euros par an de CA en services et équipement. Il permettra par ailleurs en 10 à 15 ans de créer 140.000 emplois. Il serait facile de transposer ces chiffres à ce que pourrait rapporter une politique européenne indépendante dans le domaine des grands calculateurs et des logiciels. C’est sans doute par centaines de milliards d’euros et millions d’emplois qu’il faudrait compter.

B. Identifier les grandes politiques stratégiques dépendant de la capacité de disposer en propre de moyens de calcul haute performance.

Nous avons indiqué que, pratiquement depuis les années 1960, les stratèges américains et leurs relais en Europe ont expliqué qu’il n’était pas nécessaire aux Européens de disposer de calculateurs en propre. Faire appel au marché, c’est-à-dire aux solutions américaines, dans le cadre d’appels d’offres internationaux ouverts, suffisait largement à couvrir tous les besoins. C'est ce véritable mensonge, nous venons de le voir, que les promoteurs de Galiléo ont démonté pour ce qui les concerne. Mais la prise de conscience reste à faire dans tous les autres domaines de la recherche/développement et de l’industrie, notamment quand il s’agit d’envisager de grandes politiques stratégiques indispensables à la souveraineté européenne et répondant à de grands défis scientifiques et industriels tels que celui mentionné ci-dessous du climat. On pense généralement à la sécurité-défense. Mais il ne faut pas oublier le civil, où les enjeux sont aussi importants.

Prenons l’exemple des concurrences internationales féroces désormais engagées pour contrôler les émissions de gaz à effets de serre, évaluer les risques pesants sur les écosystèmes, proposer des politiques de sauvegarde et finalement, développer et vendre des technologies de limitation des risques et de substitution. Pour jouer un rôle au niveau mondial, notamment au sein des institutions internationales ou des grandes conférences destinées à évaluer les changements climatiques, l’Europe doit disposer de ses propres mesures d’observation du globe et de ses propres modèles de simulation, ceci en avance de quelques jours à quelques mois sur ses concurrents. Elle doit mettre en place un appareillage complet de capteurs océaniques, terrestres et satellitaires, ce dont elle espère se doter grâce au programme GMES. Mais elle a besoin aussi d’un réseau des calculateurs les plus puissants du monde. Or de telles ressources de calcul lui sont aujourd’hui inaccessibles. Certes, un grid a été mis en place, associant plus de 95000 ordinateurs, à l'initiative des Britanniques, pour procéder à certaines études sur l'évolution du climat. (http://climateprediction.net/, mais on est encore loin des puissances de calcul qui seront nécessaires pour peser d'un poids suffisant dans les négociations internationales concernant ce que tout le monde considère aujourd'hui comme le plus grand risque pesant sur l'humanité en ce début de XXIe siècle.

Les Etats-Unis au contraire se sont engagés dans une politique ambitieuse de simulation sous la responsabilité du Département à l’Energie. Citons notamment le programme ASCI (Accererated Strategic Computing Initiative), sans mentionner les programmes militaires. On sait par ailleurs que dans le domaine de l’observation de la Terre, les Japonais ont installé le plus grand calculateur vectoriel existant, le Earth Simulator (celui-ci est d’ailleurs en train de perdre sa prédominance devant les machines d’IBM et de Hewlett Packard) …Or si l’Europe veut dans ces confrontations très sévères avec les autres super-puissances, ne pas jouer les utilités, elle devrait disposer de sa propre architecture de machine, de ses propres réseaux de calcul et finalement de ses propres réseaux d’obtention, de stockage, de répartition et d’analyse des milliards de données générées par jour de travail des grands ordinateurs(5).

Faisons donc rapidement une courte liste des domaines où s’exerce une compétition internationale sans pitié, où nos concurrents ne nous feront aucun cadeau et où, par conséquent l’indépendance européenne dépend ou dépendra à l’avenir de moyens de calcul en propre(6).

- L’industrie et la recherche nucléaire : citons sans exclusive les enjeux considérables que représentent la mesure du vieillissement des matériaux du parc existant, la recherche de modalités de traitement des déchets politiquement acceptables, le développement des centrales de 4e génération qui représentent un énorme marché pour les 30 prochaines années et enfin pour couronner le tout les premiers tests relatifs à la faisabilité du réacteur expérimental Iter, tant en ce qui concerne la résistance des enceintes que la gestion des flux de plasmas et innombrables autres problèmes.

- Les sciences du vivant : génomique, protéomique, analyse des virus et bactéries responsables des pandémies, simulation de la réaction de l’organisme considéré comme un ensemble intégré aux agressions comme aux médicaments. Les besoins de simulation sont immenses.

- Les nanosciences : appel aux nanotechnologies pour la réalisation de nouveaux matériaux, biens de consommation, médicaments. Les besoins de calcul destinés à simuler les comportements « quantiques » d’atomes manipulés individuellement ou par petits paquets sont eux aussi potentiellement illimités. On conçoit bien que, dans la physique nanométrique comme dans la biologie moléculaire « aux limites de l’inerte », l’impossibilité d’observer directement la nature oblige à multiplier les modélisations et les calculs de probabilités.

- Toutes les industries mécaniques et manufacturières : aérospatiale, automobile, moteurs exploitant de nouvelles sources d’énergie.

- Toutes les industries procédant à des explorations en sous-sol ou sous-marines: pétrole, industries minières…

- La physique fondamentale, qui fait appel à des accélérateurs de particules de plus en plus puissants (notamment le futur LHC du CERN destiné à entrer en service vers 2008). Dans ce domaine on rangera aussi les applications de la physique quantique (cryptographie, calculateurs quantiques) et plus généralement tout ce qui concerne les états encore mal compris, dits émergents, de la matière et de l’énergie.

- La prévision et la gestion des risques de grande ampleur. Ceux-ci se développent dans un monde de plus en plus complexe dont il est impossible de prévoir les réactions aux catastrophes sans puissants moyens de simulation.

- L’astronomie et la cosmologie, dont les nouveaux instruments, en orbite ou terrestre, nécessitent des moyens de calcul de plus en plus rapides capables d’interpréter utilement les données et de faire naître de nouvelles hypothèses testables.

- Les sciences cognitives. Nous mettrons dans cette catégorie les moyens d’analyse et de simulation du cerveau humain, ainsi que ceux consacrés, souvent en parallèle, à la réalisation de machines pensantes artificielles. Le vaste domaine des robots autonomes affectés à l’exploration scientifique, à la production manufacturière, aux services, aux loisirs et aux systèmes d’armes, se situe à la confluence des études de neurosciences, de l’intelligence artificielle et des systèmes informatisés en réseaux. Contrairement à ce que l’on croit parfois, la recherche par systèmes multi-agents, très féconde dans ces secteurs, n’exclut pas la nécessité de se connecter sur des réseaux scientifiques puissants. Nous avons plusieurs fois insisté dans cette revue sur le fait que le refus européen de se qualifier dans ce domaine essentiel à tous les développements futurs de l’intelligence collective équivaut à un véritable suicide.

- La simulation de l'évolution des armements nucléaires stratégiques. Sur ce plan, la France a pris la décision de faire construire un grand calculateur français, confié à Bull, le Tera 10. Cet ordinateur (qui vient d'être livré au CEA le mois dernier) sera affecté principalement à l'interprétation des résultats des essais de fusion nucléaire par confinement inertiel (provenant, notamment, du laser Mégajoule français), mais il servira aussi de centre de calcul pour d'autres besoins, ceux du futur Iter le moment venu, ou ceux d'autres programmes stratégiques). Tera 10 a été confié à l'industriel français Bull, rescapé du Plan calcul et qui a maintenu une compétence en propre comparable à celle des meilleurs compétiteurs américains. On doit aussi noter que le CEA et le ministère de la défense ont pris le parti d‘utiliser des logiciels scientifiques libres, qui leur évitent de dépendre d’éditeurs tels que Microsoft développant une politique de produits propriétaires défendus par des brevets. Nous allons voir que cet effort exceptionnel, dans un paysage européen caractérisé par l’abandon, peut fournir les voies du renouveau évoqué en introduction.

C Confirmer le rôle des Etats dans la mise en place des politiques scientifiques et industrielles permettant l’indépendance en matière de calcul.

Pour les Etats-Unis, la Chine et l’Inde, ce rôle n’a pas besoin d‘être confirmé puisque c’est lui qui, depuis l’invention des premiers ordinateurs puis la mise en place des grands centres de calcul, constitue le moteur quasi exclusif. Les budgets publics, difficiles d'ailleurs à comptabiliser précisément, dépassent les 500 millions de dollars par an. Nous n’y reviendrons pas. En Europe au contraire, nous l’avons vu, il parait encore aberrant que les Etats puissent se mêler de ces questions, puisque dit-on l’initiative privée (américaine s’entend) répond efficacement aux besoins des clients. L’intervention de l’Etat est encore assimilée à la réalisation de mécanos industriels inviables ou de produits inutilisables, imposés à grands frais à des utilisateurs qui en sortent pénalisés à vie.

Mais nous avons vu qu'un modèle français nouveau, reprenant en partie l'esprit du premier Plan Calcul, celui de l'époque des réussites, semble se faire jour et pourrait même être envisagé au niveau de l'Europe tout entière. Il s'agit d'un modèle associant de façon originale les trois partenaires de toute politique stratégique réussie, des administrations du secteur régalien, des entreprises technologiques et des laboratoires universitaires. Mais commenter ce supposé modèle français n'aura de sens qu'à l'intention de décideurs et d'opinions publiques décidés à revenir sur ce qu'Eric Le Boucher, dans un article tristement significatif du journal Le Monde [25/26 décembre 2005, p. 2] nomme l'« Effacement de l'Europe». Cet effacement se mesure notamment à ce que les budgets de recherche des Etats et de l'Union restent à leur niveau actuel ou décroissent, alors qu'ils devraient croître d'au moins 1% du PIB pour assurer notre avenir à tous. Si l'Europe ne fait plus de recherche, elle n'a effectivement plus besoin de moyens de calcul scientifique.

Ceci dit, que pourrait être le nouveau modèle européen permettant à notre continent de se doter d'un potentiel informatique correspondant à ce que devraient être ses ambitions stratégiques. Un début de prise de conscience a déjà eu lieu et s'est traduit par l'initiative DEISA [voir in fine notre encadré]. Mais on ne saurait se satisfaire de ce seul projet, qui repose essentiellement sur des machines IBM. Nous pensons que les Européens doivent s'appuyer sur des principes bien affirmés, rompant avec le manque d'ambition, pour ne pas dire la démission, des décennies précédentes. Nous avons dit que le numéro spécial du mensuel La Recherche-CEA de janvier 2006 donne une esquisse de ce que devrait être cette véritable révolution culturelle. Elle comporterait les éléments suivants :

- Se débarrasser définitivement de l’illusion que le libéralisme, l’ouverture des achats publics à la concurrence internationale, l’absence d’intervention de l’Etat constituent les trois piliers indispensables au développement de l’industrie informatique. On affirmera au contraire que la volonté étatique s’exerçant dans des domaines volontairement réservés à des «champions industriels européens» représente la seule façon permettant à un pays ou à un continent économiquement dominé de récupérer quelques éléments de puissance. C’est ainsi que, outre les Etats-Unis qui n’ont jamais pratique le libéralisme pour leur compte, se comportent tous les Etats émergents.

- Mettre en place des contre-pouvoirs internes permettant à la politique régalienne non sanctionnée par le marché d’échapper à l’hubris toujours possible de certains décideurs publics. Ces contre-pouvoirs viendront du fait que les décisions des administrations militaires et civiles en charge de la politique de développement des moyens de calcul seront négociées, quasiment sur un pied d’égalité, avec les industriels chargés de l’appliquer et avec les scientifiques chargés de l’utiliser – le tout dans une grande transparence communicationnelle.
Ceci se fera de diverses façons, la plus efficace aujourd’hui semblant être de créer des clusters ou regroupements de laboratoires et d’entreprises autour de puissants moyens de calcul et de simulations mis en réseaux et offrant des solutions diversifiées, accessibles sous forme de calcul à la demande. Il faudra créer autant de tels centres de calculs réticulés qu'il y aura de technopoles ou pôles de compétitivité regroupant des communautés significatives d'intérêts organisées en réseaux au plan national et européen. C’est le cas de la technopole Ter@tec, installée dans l’Essonne, et dotée de la première machine Tera. On pourrait envisager qu’à terme, les principales technopoles européennes soient équipées de tels centres et réseaux de calcul, commandés bien entendus pour l’essentiel à des industriels européens(7). Tera-10 est, lui, réalisé par Bull (notons que si cette machine était aujourd'hui homologuée dans la liste du TOP 500 des superordinateurs - ce qui sera fait au mois de juin, date du prochain palmarès, elle se classerait en 5 ème position du top mondial ! ).

Dans l'immédiat, des Grilles (ou Grids) de calcul associant des machines en réseau commencent à se mettre en place. On citera GRID 5000 (5.000 processeurs répartis sur 9 sites), une initiative de l'ACI GRID du ministère de la recherche. L'ACI GRID est soutenue par l'INRIA, le CNRS et RENATER, 8 universités et une grande-école, des conseils généraux et régionaux . Dans la suite, l'Agence Nationale de la Recherche vient de lancer un appel à projets sur le thème "Calcul intensif et grilles de calcul". pour leur part, le 6e Programme Cadre européen, suivi du 7e, s'intéressent évidemment au thème, sous l'intitulé Grid Initiative.
Mais quel que soit l'intérêt des Grids, ceux-ci ne dispensent pas de développer des super-ordinateurs. Si la course au pétaflop (1mllion de milliards d'opérations par seconde) est lancée dans le monde, ce n'est pas sans raisons.

- Encourager ou faire naître des champions industriels et scientifiques européens. C'est là qu'une véritable rupture avec 30 ans de démission industrielle s'impose à l'Europe. Les gouvernements français successifs ont su maintenir, malgré les difficultés politiques, un rôle de maître d’ouvrage et de maître d’œuvre au CEA (Commissariat à l’Energie Atomique), notamment sous la maîtrise d’ouvrage du ministère de la défense dans le domaine des applications militaires. D’autres pays européens ne disposent pas d’organismes équivalents mais ils pourraient s’en doter. Pour ce qui concerne la France, plutôt que repartir à zéro, il faudrait capitaliser sur le CEA et ses équipes(8). En ce qui concerne les industriels proprement dits, la France bénéficie encore de la présence de Bull, dont l’expérience dans le domaine des grands calculateurs est grande et vient d’être confirmée par la commande de la machine Tera-10 destinée à compléter les moyens à la disposition du CEA et du ministère de la Défense. Téra-10 devrait croître et devenir Tera-100 vers 2009. Bull et le CEA vont d'ailleurs coopérer pour lancer la gamme de serveurs FAME2 destinés au calcul intensif et aux traitements de données multimédias. Nos voisins européens ont aussi de bons industriels qui pourraient être requalifiés pour compléter le dispositif d’entreprises capables de concurrencer efficacement leurs rivales d’outre atlantique.

- Mais comment faire pour que ces champions ne soient pas trop protégés par des commandes publiques préférentielles et ne perdent pas leur compétitivité. Il faut qu’ils soient incités à réutiliser dans le secteur concurrentiel les technologies et produits développés en tout ou partie avec les moyens des Etats. C’est ce que font sans complexes les industriels américains, dont la compétitivité tient en grande partie au confortable appui de commandes publiques qu’ils reçoivent en permanence. Pour sa part, Bull pourra réutiliser au profit de sa gamme Novascale et FAME2 l'expérience acquise dans Tera-10.

- On ajoutera que, pour tout ce qui concerne les logiciels, les maîtrises d’ouvrage publiques administratives et industrielles devront imposer la procédure du développement en Open Source ou Libre Accès (logiciels libres) sauf dans des cas extrêmes où s’imposeraient des formats propriétaires. Mais même en ce cas, on évitera de retenir comme développeurs des éditeurs qui manifestement ne jouent pas la carte du Libre.

Nous avons précédemment suggéré, pour rendre l’accès à Linux et aux autres sources libres plus systématique, de lancer au niveau des institutions européennes une European Open Source Initiative, analogue à celle inaugurée en Asie il y a deux ans, laquelle a considérablement encouragé la production de logiciels par des programmeurs et éditeurs locaux.

- On posera la question des composants. Dans ce domaine, la dépendance européenne est presque totale. Nous y consacrerons un article dans notre prochain numéro.

- Ajoutons pour terminer que l’Europe ne devrait pas laisser, à un horizon un peu plus lointain, la recherche en matière d’ordinateurs quantiques et d’ordinateurs à ADN aux entreprises américaines, telles IBM et Microsoft, qui semblent y consacrer les seuls crédits un peu importants affectés à de telles recherches. On rappellera par exemple la compétence du CEA en France et du Quantum Computer Center en Grande Bretagne dans le domaine de la téléportation quantique.

Conclusion

Nous pensons que tout ce qui précède, convenablement critiqué et précisé, donnerait matière à une initiative politique de grande ampleur que l'on pourrait intituler «Initiative pour des réseaux européens de calcul à haute performance». Elle pourrait être proposée par la France aux gouvernements de l'Union et à la Commission.

Afin de préciser l'idée, pourquoi ne pas organiser un colloque ?


Notes
(1) Notamment au sein de l’entreprise européenne Unidata (associant la Compagnie Internationale de l’Informatique, Siemens et Philips), qui fut sabordée en pleine ascension par le retrait français de 1973.
(2) Dans le domaine des industries culturelles et de loisirs, les Etats-Unis ont réussi également à convaincre une grande partie du monde que les produits de ses industries suffisaient parfaitement aux besoins des populations.
(3) Les trois colloques consacrés en Europe à la souveraineté technologique, à Paris en 2004 [http://www.pan-europe.org], à Madrid et à Augsbourg en 2005, ont fait ce même constat accablant.
(4) Nous avons trouvé beaucoup d’éléments pour illustrer cette note dans le Hors Série La Recherche-CEA de janvier 2006, Le calcul haute performance. Ce numéro vient à son heure, sans doute parce que de plus en plus de scientifiques et d’industriels prennent conscience qu’il n’est plus possible aujourd’hui de laisser l’Europe continuer à s’illusionner sur l’état de sa dépendance mortelle à l’égard de l’informatique étrangère.
(5) On sait mal, en Europe, que Microsoft est engagée dans une lutte sévère avec d’autres entreprises de gestion des référencements et des données, notamment Google, pour maîtriser ce marché et ses retombées en termes d’acquisition des compétences (des autres). Cette lutte perceptible dans le domaine de l’Internet, est encore plus sévère pour ce qui concerne le traitement des données scientifiques. D’où le fait que le partenariat de l’INRA avec Microsoft a pu être dénoncé, dans l’optique de la guerre économique, comme l’introduction du loup dans la bergerie (voir sur la stratégie de Microsoft l’article de Bernard Ourghanlian, directeur technique, Microsoft France, p. 45, La Recherche CEA, op.cit, sous le titre (anodin) de « Un flot ininterrompu de données ».
(6) Pour en savoir plus sur les perspectives techno-scientifiques, on se référera aux travaux véritablement fondateurs du futurologue Ray Kurzweil. Son dernier ouvrage, la Singularité, montre clairement les changements sociétaux considérables qui résulteront de l’augmentation exponentielle des puissances de calcul avec la diminution corrélative de leurs coûts. Malheureusement pour l’Europe, comme elle ne disposera pas de tels moyens, aucun ou presque de ces changements ne se produira sur son territoire et dans sa mouvance socio-politique.
(7) Rappelons qu'aux Etats-Unis, les appels d'offres pour les équipements informatiques pilotés par le Département de l'Energie, le Département de la Défense, la NSF et la Darpa ne sont accessibles qu'aux seuls industriels américains.
(8) Nous pensons qu’une faute majeur du Plan Calcul fut, par préjugé libéral, de ne pas confier les développements industriels de l’informatique au CEA de l’époque, au lieu de chercher l’appui, qui se révéla évanescent, des industriels privés Thomson et CGE, maisons-mères de la Compagnie Internationale de l’Informatique. Il ne serait pas trop tard pour réparer cette erreur, vu notamment le rôle que le CEA sera appelé à jouer dans le domaine de l’atome civil (4e génération et fusion).Rappelons qu'aux Etats-Unis, les appels d'offres pour les équipements informatiques pilotés par le Département de l'Energie, le Département de la Défense, la NSF et la Darpa ne sont accessibles qu'aux seuls industriels américains.

Pour en savoir plus
Le Numéro spécial La Recherche/CEA : Le Calcul Haute performance http://www.larecherche.fr/special/accueil/sup393.html
Académie des Technologies. Enquête sur les frontières de la simulation numérique http://www.academie-technologies.fr/ecrit05/Simulation/rapport090505Simulation.pdf
Le Top 500 des super-calculateurs. http://www.top500.org. Voir notre article http://www.automatesintelligents.com/actu/051130_actu.html#actu14
Rapport de E. Sartorius et M. Héon La politique française dans le domaine du calcul scientifique http://www.recherche.gouv.fr/rapport/calcul/2005-017.pdf
- annexe 1 : Prospectives http://www.recherche.gouv.fr/rapport/calcul/prospectives05.pdf
- annexe 2 : Prospective sur le calcul intensif : la vision de l’INRIA http://www.recherche.gouv.fr/rapport/calcul/annexeinria.pdf
Getting up to Speed: the Future of Supercomputing, rapport du National Research Council américain. http://www.nap.edu/catalog/11148.html (accès payant)
Climateprediction.net. http://climateprediction.net/) Voir notre article : http://www.pan-europe.org/europa/v_07/alerte.htm)
GRID 5000 http://www.grid5000.fr)
Projet CAPS http;//www.irisa.fr/caps
CEA: http://cea.fr
Bull. Serveurs Novascale http:/:www.bull.com/fr/novascale/hpc.html
Appel à projets de l'ANR : programme de recherche "calcul intensif et grilles de calcul, http://www.gip-anr.fr/resultats/2005/projetsCIGC.pdf
Sur Ter@tec, réseau de calcul du pôle de compétitivité System@tic Paris-Région, voir http://www.cea.fr/fr/actualites/articles.asp?id=630.

 

DEISA : un supercalculateur virtuel pour l'Europe
Christophe Jacquemin (25/11/04)

Six pays européens(1) vont mettre en commun leurs moyens de calcul afin de déployer un environnement de calcul distribué supra-national, avec pour objectif d'améliorer la compétitivité de l'Europe dans tous les domaines des sciences et des technologies qui nécessitent des calculs intenses. Une belle initiative donc que ce projet baptisé DEISA(2), constatant que jusqu'à présent seuls les centres de calcul nationaux mettaient à disposition des chercheurs leurs ressources informatiques. Or, la concurrence croissante entre l'Europe, les USA et le Japon impose de disposer de toujours plus de puissance de calcul (voir Europa++ n°2, actualité du 8/11 : Course aux teraflops : la domination américaine).

Piloté par la France (via le CNRS-IDRIS (3)), le projet est financé pour 5 ans dans le cadre du 6eme Programme Cadre de Recherche et de Développement Technologique (PCRD) de la Commission Européenne. Dans une première phase, le supercalculateur réparti résultera de l'intégration en réseau de quatre calculateurs IBM français, allemands et italiens. La plate-forme ainsi créée est un super cluster (grappe) de noeuds de calcul, situés dans différents endroits et dans différents pays mais qui apparaissent comme n'étant qu'une seule et même machine pour les utilisateurs. Le système final regroupera 4000 processeurs ainsi qu'une énorme capacité mémoire pour une puissance totale de 22 Teraflops(4), plaçant ce supercalculateur en quatrième position mondiale(5).
Dans une seconde phase, d'autres systèmes IBM seront intégrés, notamment ceux provenant de Finlande, permettant d'atteindre rapidement les 30 Teraflops et plus.


Architecture du système

La future architecture du supercalculateur DEISA a été conçue pour fournir une interface simple aux utilisateurs finaux. Elle se compose de deux couches applicatives. Au niveau de la couche interne, des plates-formes de calcul distribuées semblables

(même architecture, même système d'exploitation) forment ensemble un supercalculateur virtuel distribué. La plate-forme ainsi créée est un super cluster de noeuds de calcul, situés dans différents endroits et dans différents pays mais qui apparaissent comme n'étant qu'une seule et même machine pour les utilisateurs.
Cette première couche applicative bénéficie du système de fichier IBM Global Parallel File System (GFPS), qui permet de fédérer des systèmes de données distants de manière dynamique. Il permet de redistribuer aisément les tâches de calcul d'un noeud du réseau afin de le libérer rapidement, le rendant de nouveau opérationnel pour des opérations de calcul nationales.

La deuxième couche applicative permet de connecter différents autres types de ressources de calcul (ordinateurs vectoriels, clusters Linux, etc.) au cluster IBM central, parachevant ainsi la création d'une grille de calcul hétérogène. La première plate-forme ainsi intégrée est le superordinateur ALTIX du centre néerlandais SARA Computing and Networking Services, fabrique par SGI, et équipé de 416 processeurs Itanium. La grille hétérogène du projet DEISA sera administrée grâce au middleware* UNICORE, qui gérera la répartition des charges de calcul et de mémoire de façon transparente pour les utilisateurs finaux via une interface Web unifiée.

* Ou encore intergiciel, en français : terme qui désigne l'ensemble des services qui étendent les systèmes d'exploitation pour fournir aux applications des fonctions de gestion de la distribution (désignation, exécution répartie, sécurité...) et de gestion des ressources distribuées (fichiers, mémoires, objets...).

(1) France (pilote du projet), Allemagne, Italie, Royaume-Uni, Finlande, Pays-Bas. Signalons que grâce à son architecture ouverte, le programme peut s'étendre à tout moment à de nouveaux partenariats.
(2) Distribued European Infrastructure for Supercompution Applications.
(3) Institut du Développement et des Ressources en Informatique Scientifique, situé en France, à Orsay.
(4) Un teraflop = mille millards d'opération (en virgule flottante) par seconde.
(5) En se référant à la liste Top 500 des ordinateurs les plus rapides du monde.


Pour en savoir plus :
Site DEISA : http://www.deisa.org
Article : Les superordinateurs et la course au pétaflop (2 mars 2004) : http://www.automatesintelligents.com/labo/2004/mar/superordinateur.html

 

 


Retour au sommaire