ECLAT : l’alliance science-industrie qui repousse les limites de l’observation astronomique

Innovation

Le mouvement des planètes a été mis en évidence par Isaac Newton à l’aide du premier télescope optique pour l’astronomie. Aujourd’hui, les équipes du laboratoire commun ECLAT participent à la conception de télescopes que le génie du 17e siècle aurait peiné à imaginer. Infiniment plus grandes, ces infrastructures d’observation nécessitent des méthodes de calcul haute performance (HPC) pour traiter les gigantesques quantités de données qu’elles captent du ciel.

Le laboratoire commun ECLAT (Extreme Computing Lab for Astronomical Telescopes) regroupe des scientifiques et des industriels français pour concevoir des méthodes de Calcul Haute Performance et d’intelligence artificielle adaptées aux télescopes les plus avancés. « Notre centre d’excellence a été lancé en juillet 2023 », annonce Damien Gratadour, chercheur CNRS au Laboratoire d’études spatiales et d’instrumentation en astrophysique (CNRS/Observatoire de Paris-PSL/Sorbonne Université/Université Paris Cité) et directeur d’ECLAT. « Après deux premières années de montage et de maturation, nous avons adopté une feuille de route technique à laquelle 14 laboratoires et équipes de recherche du CNRS, de l’Inria et des observatoires de Paris et de la Côte d’Azur sont associés ». Le laboratoire commun embarque également l’industriel Eviden (groupe Atos) dans l’aventure. Ce leader mondial des technologies numériques apporte ses compétences en matière de construction de supercalculateurs, pour faciliter le déploiement à grande échelle des futures infrastructures de calcul portées par ECLAT.

ECLAT

Équiper les radiotélescopes du futur

Le défi relevé par les scientifiques consiste à participer à la construction et la conception (par la R&D) de deux supercalculateurs adossés aux futurs radiotélescopes SKA. Il s’agit d’immenses infrastructures d’observation qui seront implantées en 2029 en Afrique du Sud et en Australie, dont les réseaux d’antennes compteront respectivement 197 antennes et plus de 500 stations de 256 antennes. Elles ambitionnent d’étudier des questions fondamentales des sciences astronomiques : des origines de l’Univers, aux expériences sur les théories de la gravitation et de la relativité générale.

Si les télescopes optiques collectent la lumière provenant des objets célestes, de leur côté, les radiotélescopes captent les ondes radio émises par ces mêmes objets. Ils utilisent de grandes surfaces d’antennes pour concentrer ces signaux, atteindre une résolution spatiale satisfaisante, puis les convertir en images ou en données interprétables par les astronomes. « Les besoins associés à ces systèmes en termes de stockage de données et de calculs sont immenses » souligne Shan Mignot de l’Observatoire de la Côte d’Azur. Une fois opérationnels, les supercalculateurs du SKA Observatory intégreront le top 10 mondial en matière de puissance. « On parle de centaines de pétaflops » renchérit Damien Gratadour, comprenez une puissance de calcul équivalente à celle cumulée de près de 200 000 ordinateurs portables.

Faire entrer la science astronomique dans une nouvelle ère

Dans le jargon astrophysique, les « visibilités » sont les données d’entrée utilisées pour reconstruire des images par interférométrie. Si les radiotélescopes actuels sont en capacité de stocker ces visibilités, ce ne sera pas le cas de l’observatoire SKA qui fonctionnera en continu et atteindra des qualités de sensibilité et de résolution inédites. « Il affiche des dimensions telles qu’il est impossible de stocker toutes les visibilités que l’instrument produira. Il faut donc changer de paradigme » insiste-t-il. C’est-à-dire que la communauté aura accès aux images reconstruites, mais généralement pas aux visibilités. « Pour ne rien vous cacher, beaucoup de scientifiques demeurent circonspects sur ce point » pointe le chercheur. Et pour cause, il n’y a pas d’unicité des images permettant d’expliquer les visibilités et les astronomes devront accorder une confiance absolue aux équipes de l’observatoire SKA dans leur capacité à fournir des données prétraitées, réduites et fiables.

Il faut donc, grâce à des techniques de traitement automatique (intelligence artificielle), créer de nouveaux algorithmes de tri qui ne laissent pas de données potentiellement cruciales de côté. Les chercheurs font le choix de ne pas utiliser de réseaux de neurones, du fait que « ce qui sort de ces systèmes n’est pas encore forcément reproductible ou explicable » rappelle Damien Gratadour, ce qui poserait d’autant plus la question de la confiance.

Un défi technique, financier et environnemental

Les défis auxquels les scientifiques s’attaquent ne sont pas seulement technologiques. L’ampleur du projet « amène son lot de complexité en termes culturels, géographiques et organisationnels » souligne Shan Mignot, sans compter les contraintes environnementales auxquelles ces infrastructures sont soumises. Il s’agit de parvenir à engager des centaines de scientifiques du monde entier, autour d’une technologie la plus responsable et économe possible en termes de ressources naturelles et d’énergie consommées. Damien Gratadour remarque que « contrairement à des GAFAM qui peuvent produire des supercalculateurs sans regarder les paramètres environnementaux de trop près », ce sont des critères essentiels pour les scientifiques d’ECLAT, qui touchent « à la survie économique des infrastructures ».

En effet, une crise énergétique est vite arrivée et si certaines infrastructures sont trop gourmandes en ressources, elles peuvent s’arrêter de fonctionner comme ce fut le cas pour certaines au cours de la récente crise de l’énergie. Shan Mignot pointe aussi l’importance de l’acceptabilité sociale d’un tel projet : « consommer des mégawatts dans une ville comme Le Cap où les coupures de courant sont quotidiennes, nous oblige à intégrer l’impact local dans nos travaux ».  Concrètement, les chercheurs s’engagent dans une conception durable des supercalculateur, que Shan Mignot résume selon trois axes :

  • Une stratégie de distribution des données pour paralléliser les traitements et équilibrer la charge sur les différentes parties de la machine, afin d’éviter de la surdimensionner ;
  • Une mesure fine de la consommation électrique pour optimiser l'implémentation logicielle et l'implantation matérielle ;
  • Une analyse de l'impact environnemental des systèmes sur l'ensemble de leur cycle de vie. 

Un savoir-faire à la française 

« Il y a une école française de l’interférométrie radio » sans laquelle cette aventure scientifique n’aurait pas pu voir le jour, souligne Damien Gratadour. Le chercheur en veut pour exemple les travaux de Cyril Tasse, astronome à l’Observatoire de Paris – PSL, qui a développé une méthode innovante de traitement des données d’interférométrie radio[1], adaptée à la sensibilité et à l’échelle de ces télescopes géants. Les scientifiques s’appuient également sur NumPEx[2], un programme de recherche exploratoire (PEPR) sur les technologies numériques haute performances qui équiperont les prochaines générations de supercalculateurs dits « exascale ». Ces systèmes, comme l’européen Jules Verne[3], sont capables d’effectuer plus d'un milliard de milliards de calculs par seconde. Cette stratégie permettra d’équilibrer les charges de calcul, d’utilisation de la mémoire et d’accès aux données, afin que l’ensemble des ressources matérielles du futur observatoire SKA puisse être utilisées en permanence.

En démontrant la pertinence des algorithmes qu’ils développent, la faisabilité technique des supercalculateurs, ainsi que leur performance énergétique, les équipes d’ECLAT pourraient bien participer à la prochaine révolution astrophysique. « Nous espérons, grâce à nos supercalculateurs, rendre matérialisable l’exploration des premiers instants de l’Univers et faciliter la compréhension de phénomènes encore mystérieux comme la matière noire » résume le directeur d’ECLAT.

Des perspectives qui auraient sans aucun doute enthousiasmé Isaac Newton !

Pour en savoir plus