Retour au numéro
Vue 117 fois
01 octobre 2018

LE CALCUL HAUTE PERFORMANCE (HPC)
UN TOURNANT STRATÉGIQUE ET TECHNOLOGIQUE

Ce domaine en pointe des technologies de l’information élargit son utilité aux usages du big data. Il doit également s’ouvrir à de nouvelles pistes pour continuer à proposer plus de performances lorsque la nanoélectronique CMOS cessera de progresser.


 

Le calcul haute performance (HPC High Performance Computing) est un outil stratégique pour un nombre croissant d’applications aussi bien scientifiques qu’industrielles. Il s’ouvre également pour intégrer le traitement des données massives et contribuer au développement de l’intelligence artificielle.

Des applications traditionnelles...


Pratiquement tous les domaines scientifiques s’appuient aujourd’hui sur le calcul intensif pour progresser. La simulation est un outil de compréhension indispensable et la croissance des puissances de calcul alliée à l’affinement des modèles fait progresser le savoir dans tous les domaines de la recherche. Elle constitue aussi un enjeu vital de la compétitivité de nos entreprises industrielles et de services, que ce soit par le maquettage virtuel, qui permet de concevoir de manière correcte et valide pratiquement sans prototypes des systèmes complexes (avions, automobiles...), ou pour découvrir des gisements de gaz ou synthétiser des molécules pharmaceutiques.

...vers de nouveaux usages.

Au-delà de ces applications, un changement marquant est le couplage du HPC avec les données massives ou « Big data » générées par de nouveaux capteurs et objets connectés, qui nous renseignent sur les phénomènes physiques ou sur nos comportements. Le développement du « Cloud computing » permet à la fois de stocker et d’accéder à ces données qui se multiplient à une vitesse pour l’instant exponentielle. L’exploitation de ces données et la valeur qui pourra en être extraite passe par l’utilisation du calcul intensif. Nous assistons à une convergence du « big data » et du HPC qui sert à traiter les données.

Cette convergence permettra en médecine l’adaptation du traitement à chaque patient grâce à l’exploitation d’importantes masses de données génomiques, d’imagerie médicale, de données physiologiques et de retours d’expériences. Des usages dans des réseaux de transport ou des smartgrids pour l’électricité, sont également envisagés avec des retombées importantes. Par exemple on peut imaginer, à partir d’informations sur l’état du réseau d’une mégapole, d’événements passés et de modèles météorologiques et de pollution, optimiser les flux en pilotant les systèmes de contrôle de la circulation et en informant mieux les automobilistes.

Pour faciliter l’émergence de ces nouveaux usages, les centres de calcul doivent ouvrir leurs superordinateurs jusqu’à présent exploités en silo fermé. Il faut les connecter avec les systèmes d’information et repenser leur mode d’exploitation pour permettre l’assimilation des données et leur traitement en continu. Ces évolutions passent également par l’adaptation des environnements logiciels pour supporter les nouvelles communautés utilisatrices qui n’emploient pas les outils traditionnels du HPC et pour renforcer la sécurité informatique.

Comment continuer à
offrir des superordinateurs toujours plus performants ?

Le développement des usages s’accompagne d’une interrogation sur l’avenir. Comment continuer à proposer plus de performances ? Jusqu’à présent la progression constante des superordinateurs avait comme moteurs les progrès des composants nanoélectroniques (CPU, GPU, mémoires, réseau d’interconnexion) et le recours à un parallélisme toujours plus important. Ces voies ont des limites qui sont clairement identifiées. La miniaturisation des technologies CMOS va s’arrêter et les composants qui en sont dérivés n’arriveront plus à accroitre leur performance à énergie donnée. Multiplier ces composants reviendra donc à multiplier l’énergie nécessaire pour faire fonctionner un superordinateur ce qui a une limite rapide à quelques dizaines de megawatts dont on est déjà très proche.

Il faut donc trouver des voies nouvelles si l’on veut disposer d’ordinateurs qui continueront de proposer plus de performances. Certains voient dans l’ordinateur quantique la solution à ce problème. Sans remettre en question l’intérêt des technologies quantiques, il serait extrêmement risqué de se focaliser sur cette voie. D’abord parce qu’on a aucune certitude sur le temps qu’il faudra pour ou même sur la capacité à fabriquer des ordinateurs quantiques fiables. Ensuite si on franchit cette étape, les domaines d’usage de ces ordinateurs sont aujourd’hui limités à des algorithmes très spécifiques qui ne couvrent pas l’ensemble des applications souhaitées et l’on ne sait pas si l’on pourra les étendre.

Deux autres pistes semblent plus prioritaires : la recherche de voies alternatives au CMOS pour faire du traitement de l’information digitale avec un meilleur rendement énergétique et l’étude de nouvelles architectures plus innovantes que celles des CPU et GPU actuelles.

Le succès industriel du CMOS qui a vraiment été le moteur de la croissance du monde digital a anesthésié d’autres pistes de recherche visant à créer des dispositifs de traitement de l’information digitale. Il est nécessaire de les réanimer et d’étudier si d’autres technologies sont capables d’implanter les opérations logiques de base avec un meilleur rendement énergétique et/ ou une fréquence supérieure.

Anatomie d’un superordinateur :

Un superordinateur comprend d’abord plusieurs dizaines de milliers de processeurs (CPU : Central Processing Unit) souvent couplés à des accélérateurs de calcul dérivés des GPU (Graphics Processing Unit). Ces composants organisés en nœuds de calcul délivrent la puissance de calcul.

Ensuite des dispositifs pour manipuler et stocker les données utilisées par les applications qui se chiffrent en petaoctets (1015 octets). Ce sont les mémoires et les caches proches des processeurs pour un accès rapide et les disques et les bandes pour un stockage à plus long terme des données.

Troisièmement un réseau très rapide qui permet à la fois l’échange des données entre nœuds de calcul lors du traitement et la lecture/écriture des données d’entrée/des résultats.
Une infrastructure pour alimenter en électricité et pour refroidir la chaleur dissipée pour les composants électroniques. Les ordinateurs les plus performants demandent une puissance de plusieurs mégawatts qu’ils transforment en chaleur évacuée par des dispositifs de refroidissement liquide.

Enfin, des logiciels qui permettent de faire fonctionner l’ensemble, de le piloter, d’en optimiser les performances et de le maintenir en condition opérationnelle.
Bien dimensionner ces différents éléments est la clé pour obtenir un superordinateur efficace qui permettra les premières scientifiques, les innovations industrielles ou l’avancée des usages sociétaux.
Visite virtuelle d’un supercomputer https://www.tacc.utexas. edu/special-report/stampede/ virtual-tour

Exemple de superordinateur : le système Yoccoz Tera1000-2 du CEA (photo propriété CEA)

Le second axe concerne les architectures. Sans rentrer dans des détails techniques, il faut comprendre que les CPU et GPU actuels sont basés sur une architecture appelée Van Neumann qui impose un contrôle particulier des algorithmes et une dichotomie opération/donnée. Cela se traduit par une grande flexibilité mais impose aussi beaucoup de dispositifs consommateurs d’énergie qui ne sont pas optimaux pour tous les algorithmes. De nouvelles architectures pourraient épauler les processeurs standards. Hybridés avec des technologies optiques, on pourrait proposer des systèmes bien plus performants que les superordinateurs actuels.

La France leader européen du HPC


Pour conclure, il est important de signaler que grâce à l’impulsion du CEA la France est un pays en pointe dans le domaine du HPC. Cette action du CEA, par la mise en place d’un partenariat avec Bull puis Atos et d’une politique publique d’abord en France puis en Europe, a permis à la France d’être le leader européen du HPC. Cela nous donne de nombreux atouts pour relever les défis des nouveaux usages et des évolutions technologiques nécessaires pour continuer à tirer le meilleur parti de cet outil stratégique qu’est le HPC.

 

Vous êtes intéressés par le Calcul Haute Performance (HPC)

Pour en apprendre plus : deux numéros de revues dédiées à ce domaine, et un écosystème :
et les trois liens à suivre https://www.usine-digitale.fr/article/supplement-simulation-le-bigdata-fait-son-big-bang.N323081 https://www.lajauneetlarouge.com/magazine/732Pour participer, rejoignez un écosystème :
Teratec (http://www.teratec.eu/) basé en France ou ETP4HPC, la plateforme européenne (http://www.etp4hpc.eu/)

Auteur

Commentaires

Aucun commentaire

Vous devez être connecté pour laisser un commentaire. Connectez-vous.