Une brève histoire du supercalculateur
Depuis la machine à différences jusqu’au Tera-1000, les supercalculateurs n’ont cessé de progresser et d’accompagner les plus grandes avancées scientifiques, au point de devenir indispensables aux chercheurs. Mais ce développement draine tout un ensemble de nouveaux défis, notamment en formation.
En 1821, Charles Babbage présente à la société royale d’astronomie de Londres le modèle de sa machine à différences construite pour calculer les polynômes. Faute de pièces disponibles pour la construire, elle ne verra jamais le jour. C’est toutefois la théorie derrière la machine de Babbage qui a inspiré Ada Lovelace, première grande femme informaticienne, à l’origine du concept de « programme informatique ». Il faudra attendre 1938, 7 ans après la création de Bull, et l’allemand Konrad Zuse pour mettre au point le calculateur Z1, capable de réaliser une opération par seconde soit 1 Flops (Floating-point OPeration per Second). De son aveu même, son calculateur ne fonctionnait pas très bien. Et, quand un exemplaire de sa machine sera reconstruit en 1989 pour un musée de Berlin, il dira avec humour : « La réplique du Z1 est tout à fait conforme, elle fonctionne aussi mal que l’original. »
137g grâce à la Loi de Moore
Dans les années 60, les premiers supercalculateurs sont développés aux États-Unis et résultent essentiellement de l’agrégation d’un grand nombre d’ordinateurs. Le bouleversement intervient lorsque les processeurs vectoriels se démocratisent. Ces processeurs permettent de traiter un grand nombre d’opérations en parallèle, et non plus les unes après les autres. Le gain en temps et en puissance de calcul est énorme. Et, comme l’avait prédit en 1967 Gordon Moore, le fondateur d’Intel, la puissance des ordinateurs se met à doubler tous les 2 ans, puis tous les 18 mois jusqu’à la fin des années 1990 : c’est la fameuse Loi de Moore.
En 1985, le supercalculateur le plus puissant du monde pèse près de 2,5 tonnes. En 2013, moins de 30 ans plus tard, l’iPhone 4 dispose de la même puissance de calcul tout en ne pesant que 137g. « Le cycle de vie d’un calculateur est de 3 à 5 ans, les capacités sont multipliées par 10 voir 100 pendant cette période. » estime Patrice Lucas, Responsable opérationnel au TGCC (le Très Grand Centre de Calcul du CEA, Commissariat à l’énergie atomique et aux énergies alternatives). Les évolutions étant très rapides, les supercalculateurs sont désormais quasiment tous des modèles uniques.
Le défi énergétique
Mais l’augmentation constante de la puissance de calcul des supercalculateurs s’accompagne de besoins énergétiques considérables. Le Tera 100, développé en 2010 par Bull et la Direction des Applications Militaires du CEA, nécessitait une puissance électrique de 5 MW, comparable aux besoins d’une ville Française de 6 000 habitants. Un travail de longue haleine a été réalisé par les équipes d’Atos pour rendre son successeur, le Tera 1000, présenté en juin dernier par Atos et le CEA-DAM, plus efficace : la puissance de calcul a été multipliée par 2 et la consommation en énergie a été divisée par 5. Alors que l’on annonce l’arrivée, dès 2020, d’un supercalculateur « exaflopique », capable de réaliser 1 milliards de milliards d’opération à la seconde, la consommation de ce dernier pourrait avoisiner les 30 MW.
Troisième pilier de la méthode scientifique
Depuis que la France s’est engagée à ne plus réaliser d’essais nucléaires, la simulation numérique (calculs permettant de représenter un phénomène physique ou complexe sur un ordinateur) a pris toute son importance. Elle est même devenue le 3e pilier de la méthode scientifique, au même titre que la théorie et l’expérimentation. Elle permet de remplacer des expériences trop dangereuses (accidents, crash tests), trop longues (modélisation climatique) ou interdites (essais atomiques).
En 2007, le GENCI (Grand Équipement National de Calcul Intensif) a été créé conjointement entre le Ministère de l’Enseignement et de la Recherche, le CEA, le CNRS, les universités et l’INRIA, et est destiné à mettre en place une stratégie nationale de calcul intensif. Il met à la disposition de ses membres un certain nombre d’heures de calculs sur les 5 calculateurs dont il a fait l’acquisition.
En 2018, des avancées importantes dans le domaine de l’astrophysique, des matériaux mais également de la lutte contre le cancer ont été rendues possibles grâce à l’utilisation du calcul intensif. Si l’utilisation de ces machines est majoritairement le fait des scientifiques, une partie des heures de calculs est également proposée aux industriels et aux PMEs. Les industries automobiles et aéronautiques utilisent les simulations pour améliorer l’aérodynamique et diminuer les consommations de carburants. L’importance des retombées en terme de recherche scientifique et de développement pour les entreprises fait de la course au calculateur exascale un enjeu de souveraineté nationale. En octobre 2018, le député Cédric Villani a inauguré le supercalculateur Romeo livré par Atos à l’Université de Reims.
Entre création de valeur économique et nouveaux défis
Une étude menée par Vertigo Lab entre 2008 et 2016 a démontré que chaque million d’euro investi en France dans l’écosystème des supercalculateurs générait en moyenne 1,93 millions d’euro de production, 870 000 € de valeur ajoutée et 12 emplois salariés. L’impact socio-économique du monde du calcul intensif est donc très positif au niveau national. Devant l’importance de la maîtrise des supercalculateurs, l’Etat Français soutient financièrement le programme de R&D d’Atos et du CEA, champions Français et Européen dans la course à l’exascale (systèmes informatiques capables d’effectuer un milliard de milliard de calculs par seconde). Cette course de fond à haute intensité que constitue le développement de supercalculateurs toujours plus puissants annonce un ensemble de nouveaux défis à relever.
La formation des chercheurs devra être revue dans son ensemble, les futurs chercheurs en physique, chimie, biologie et médecine devant non seulement être à la pointe dans leur domaine, mais être aussi formés au maniement de la data et de l’utilisation des supercalculateurs. De plus en plus de codeurs seront chargés de retranscrire les équations mathématiques complexes des chercheurs en instructions pour les machines. Enfin, la consommation énergétique toujours excessive des calculateurs nécessitera une rupture dans la conception même des supercalculateurs. À moins que le supercalculateur ne soit qu’une étape sur le chemin de l’informatique quantique, qui nous promet une puissance de calcul sans commune mesure avec ce que nous connaissons aujourd’hui.