Calcul pour l’IA : « La souveraineté passe par la maîtrise de technologies de rupture »
Des technologies de rupture pourraient bouleverser l’avenir de l’intelligence artificielle, aujourd’hui engagée dans une impasse face à ses coûts énergétiques et environnementaux exponentiels. Des alternatives émergent, basées sur de nouvelles façons d’imaginer le numérique, comme l’ordinateur quantique ou le stockage moléculaire. Cela implique de construire de « nouveaux paradigmes de calcul », une thématique spécialement mise en lumière en 2025 par CNRS Sciences informatiques, pleinement engagé sur le sujet.
En quoi l'expertise française et européenne à propos des nouveaux paradigmes de calcul, c'est-à-dire des modes de calcul exploitant de nouvelles technologies, répond à des enjeux de souveraineté ?
Marian SCUTURICI1 : Certains pays étrangers ne souhaitent pas partager leurs outils de calcul les plus performants, en particulier les processeurs graphiques (GPU) utilisés dans l’intelligence artificielle, pour des raisons de compétition technologique. Nous dépendons pourtant de ces ressources pour de nombreuses activités, en particulier pour la production de connaissances. Pour éviter cette dépendance, nous devons maîtriser des méthodes de calcul alternatives. Le quantique représente un atout, en France, grâce à des investissements massifs. De belles start-ups française comme Alice & Bob, Pasqal et Quandela sont très visibles internationalement. La souveraineté passe par la maîtrise des technologies émergentes et par leur développement dans le pays, ce qui impose de sécuriser les voies d’approvisionnement et les financements.
Adeline NAZARENKO2 : La démarche, au CNRS, consiste à imaginer et concevoir de nouvelles formes de calcul grâce à la recherche fondamentale. Au départ, il faut laisser les scientifiques travailler, explorer de nouvelles voies et financer leurs travaux. Après deux ou trois ans, nous évaluons la crédibilité de certaines idées ainsi que la validité des premières hypothèses. Cela permet de décider quelles pistes il est pertinent de poursuivre.
Quelles technologies de calcul pourraient aboutir à des résultats exploitables dans un avenir proche ?
A.N. : Nous ne savons pas quelle technologie prendra le pas sur les autres mais toutes entrent dans une phase d’accélération. Les progrès les plus rapides se trouvent du côté du calcul frugal, avec des résultats déjà exploitables. Nous lançons également des recherches permettant le calcul sur ADN parce que les technologies de stockage de données sur ADN synthétique seront disponibles d’ici cinq à dix ans. Cette technologie est l’objet du Programme de recherche Stockage de données sur ADN (PEPR MoleculArXiv). Même s’il a été conçu au départ comme un programme exploratoire, nous pensons aujourd’hui qu’il est pertinent de développer une filière d’accélération, sujet de discussion avec le Secrétariat général pour l'investissement (SGPI). Cela implique de mener des recherches intégrées de chimie, d’informatique, de micro-fluidique… Les industriels sont surpris de ces possibilités, cela ouvre leurs perspectives. Il faut s’y atteler aujourd’hui pour pouvoir en bénéficier plus tard.
M.S. : Le calcul neuromorphique, qui vise à reproduire électroniquement le fonctionnement des réseaux neuronaux biologiques, permet déjà quelques applications. Par exemple, pour déplacer efficacement des robots dans des environnements complexes et imprévisibles. La technologie, pour l’instant explorée en laboratoire, se montre prometteuse. C’est l’objet du groupement de recherche BioComp du CNRS.
Le calcul quantique émerge aussi afin d’exploiter le potentiel des ordinateurs quantiques, que nous savons construire. Plusieurs défis technologiques restent à surmonter pour que ces derniers deviennent intéressants en pratique, comme le fait de pouvoir obtenir des températures proches du zéro absolu, ce qui est à la fois énergétiquement coûteux et techniquement complexe. La recherche informatique sur le calcul quantique, développée notamment dans le Programme de recherche (PEPR) Quantique, est en avance de phase par rapport aux progrès en physique. Nous nous préparons pour le jour où les technologies physiques seront disponibles industriellement.
Les avancées en informatique ont été fulgurantes depuis l’apparition des premiers ordinateurs ; nous nourrissons l’espoir d’une évolution similaire pour les nouveaux paradigmes de calcul.
Pourquoi avoir choisi, cette année, de mettre en lumière la thématique des « nouveaux paradigmes de calcul » ?
A.N. : Les progrès technologiques menés depuis les années 1970 ont démultiplié la puissance de calcul tout en contenant l’augmentation des prix des processeurs. Nous nous approchons cependant d’un palier où nous ne pourrons plus, sans rupture technologique, augmenter la puissance de calcul de façon soutenable en termes de coûts financiers, environnementaux et sociétaux. Le CNRS accélère aujourd’hui des recherches au long cours qui pourraient conduire à des ruptures technologiques. Le choix de faire un focus sur les « nouveaux paradigmes de calcul » vise à mettre en avant les recherches menées au CNRS sur les technologies les plus prometteuses : le calcul quantique, le calcul moléculaire, ainsi que le calcul biomorphique.
M.S. : Les data centers jouent un rôle important pour la recherche scientifique. Le CNRS opère par exemple le superordinateur Jean Zay, l'un des trois supercalculateurs français dédiés au calcul scientifique. Il peut exécuter 126 millions de milliards d'opérations par seconde, soit 126 pétaflops, ce qui est un volume phénoménal. Cependant, ce type de machine nécessite des quantités importantes d’eau et d’électricité pour fonctionner alors que la demande ne fait qu’augmenter. L’enjeu consiste à trouver des manières de calculer moins gourmandes en ressources.
Dans quelle mesure ces nouvelles méthodes de calcul permettent de réduire l'empreinte écologique du numérique ?
M.S. : Pour donner un ordre d’idée de la marge de progression envisagée, je choisis souvent l’exemple du logiciel Alpha Go, qui a vaincu en 2016 le champion du monde de jeu de go de l’époque, Lee Sedol. Une prouesse qui implique un coût énergétique d’environ 1 million de watts (1 mégawatt), alors que le cerveau humain ne consomme pour la même tâche que 20 watts, soit 50 000 fois moins. Cela montre que le calcul informatique n’est pas efficace aujourd’hui. Explorer de nouveaux paradigmes de calcul rend toutefois la construction d’alternatives, au moins pour certains usages, à une solution aujourd’hui insatisfaisante.
A.N. : Le paradigme dominant aujourd'hui, c'est la convergence du calcul haute performance et de l’intelligence artificielle. Nous consacrons beaucoup d’énergie à réduire l'empreinte de ce type de calcul qui va perdurer malgré les limites citées par Marian. C’est l’objet du calcul frugal. En parallèle, il faut travailler à la maîtrise des usages. Ces derniers se multiplient, dès lors que nous offrons de nouvelles technologies plus économes et plus efficaces : c’est l’effet rebond. Nous devons identifier quels usages nécessitent réellement une plus grande puissance de calcul, ce qui est l’un des défis du Groupe de recherche et de service (GDRS) EcoInfo, lancé au début des années 2000 pour accompagner la sobriété numérique.