Accueil du site > Vie de la recherche > Prix et distinctions > Institut universitaire de France (IUF)




Recherchez sur ce site


Nicolas Dobigeon : « Du microscope au satellite, explorer un monde aux mille « couleurs » »

Nommé membre junior de l’Institut Universitaire de France au 1er octobre 2017, Nicolas Dobigeon se passionne pour le traitement du signal et des images dans le domaine de l’imagerie hyperspectrale. Dans ce monde où les images sont vues à des centaines voire des milliers de fréquences, il apporte ses contributions dans la télédétection, mais aussi dans le domaine plus inattendu de la spectrométrie.

Pouvez-vous nous décrire ce qu’est le domaine de l’imagerie hyperspectrale ?

Nicolas Dobigeon : Nous avons l’habitude des images composées par trois couleurs (rouge, vert, bleu), mais il est possible de capter énormément d’autres « couleurs », c’est-à-dire des bandes spectrales qui vont jusqu’à l’infrarouge et au-delà. Pour une observation de la Terre, le Soleil nous éclaire, et les matériaux réfléchissent cette lumière qui est recueillie par les capteurs hyperspectraux qui enregistrent généralement 200 bandes différentes, mais peuvent monter parfois jusqu’à 800 bandes spectrales !

Basé à Toulouse, je profite, en tant qu’expert en traitement du signal et des images, du contexte industriel particulier. J’ai notamment des partenariats réguliers avec le CNES depuis plusieurs années sur des problématiques d’analyse et de traitement des données sur des images acquises par satellite pour l’observation de la Terre. Les données sur lesquelles je travaille, c’est une image qui a été acquise au-dessus d’une scène et qui a été enregistrée dans beaucoup de bandes spectrales. L’avantage, c’est que l’on a ainsi une description très précise de la scène en termes de matériaux. Par exemple, sur une image classique où on verrait du vert, on penserait à des végétaux, mais on ne pourrait pas savoir si c’est du synthétique ou non, ou de quel type de végétal ou d’arbre il s’agit. Chaque matériau va renvoyer une réponse spectrale, une sorte de signature qui va le caractériser. Le prix à payer pour avoir cette richesse spectrale, c’est la faible résolution spatiale. Notre capteur ne peut fournir que des images avec moins de pixels, donc moins précises spatialement et un peu floues. La résolution d’un seul pixel est de l’ordre de plusieurs mètres, et il peut donc y avoir beaucoup de matériaux sur un même espace. Avec les dispositifs d’acquisition actuels, plus la résolution fréquencielle est grande, plus la résolution spatiale est faible.
Représentation du cube de données associé à une image hyperspectrale acquise au-dessus de Moffett Field (Californie, Etats-Unis) par le capteur AVIRIS. L’image sur la face avant est une composition colorée naturelle.

Quelles sont les réponses que vous apportez à cette problématique ?

N. D. : Ça fait maintenant 10 ans que je travaille à développer des méthodes pour contourner, pour dépasser ce compromis résolution spatiale/résolution spectrale. Plus récemment, j’essaie de combiner deux outils actuellement utilisés séparément : la classification et le démélange.

La classification permet de donner des labels aux pixels, sans distinguer les différents éléments qui peuvent constituer le pixel. Les informations sont donc assez grossières, mais peuvent s’appuyer sur des experts envoyés sur le terrain qui vont décrire les scènes : là une rivière, ici une forêt de pins, et là une culture de maïs. Cette expertise extérieure est précieuse, face à des problèmes de grandes dimensions utilisant beaucoup de données. Le démélange, comme son nom l’indique, tente d’inverser le processus de mélange, pour séparer l’information spectrale d’un côté et l’information spatiale de l’autre. Cela permet d’obtenir une description exhaustive de la scène qui va pouvoir être exploitée pour une application précise : identifier des bâtiments camouflés dans un contexte militaire, faire un suivi hydrique des végétaux avec une caractérisation de l’impact de l’humain sur les paysages comme nous le faisons ici à Toulouse. Nous essayons de décrire le processus physique qui lie les paramètres intrinsèques de la scène à la mesure que nous avons effectuée.

Un des axes de mon projet est donc d’arriver à combiner ces deux types d’analyse, pour profiter de la finesse du démélange tout en exploitant l’expertise extérieure intégrée dans la classification. Cela nous permettrait de fournir une description multi-échelles de la scène, de la plus grossière à des détails très fins, en exploitant conjointement toutes les informations à notre disposition.

Y a-t-il un autre domaine que la télédétection sur lequel vous travaillez ?

N. D. : Tout à fait. J’ai été amené à échanger par hasard avec des collègues en physique, qui travaillent sur la spectroscopie au Laboratoire de Physique des Solides (LPS – CNRS/Université Paris-Sud). En effet, certains microscopes fournissent des images « hyperspectrales », que les physiciens désignent par spectres images. Il s’agit exactement du même type de données à traiter, avec les mêmes problématiques : identifier les composants de l’échantillon, et caractériser la proportion de chacun des matériaux. Sur cette thématique, mon travail ne se concentre pas tant sur l’analyse des données que sur l’acquisition elle-même. Pour obtenir un cube de données (c’est-à-dire la scène en deux dimensions auxquelles on ajoute une 3e dimension avec les différentes bandes spectrales), il existe deux méthodes d’acquisition classiques : soit prendre la signature spectrale de tous les pixels, soit acquérir toute la scène bande spectrale par bande spectrale.
Spectre-image de taille 64x64 acquise dans 1340 bandes par spectroscopie des pertes d’énergie (electron energy loss spectroscopy, EELS). L’image sur la face avant est une composition colorée artificielle. L’échantillon observé comporte une zone riche en nanocages contenant du bore sous forme pure, d’oxyde ou de nitrure.

L’idée dans mon projet est de ne faire aucune de ces deux méthodes, mais d’en proposer une nouvelle. En effet, en spectroscopie, il y a des risques d’abîmer ou même détruire un échantillon si l’acquisition est trop longue. Mon idée est de ne faire qu’une acquisition partielle, mais de proposer des techniques de reconstruction du cube de données complet par interpolation, c’est-à-dire de prédire les données manquantes à partir de celles acquises. Pour l’instant, en cas d’acquisition partielle, il n’y a pas de stratégie particulière pour choisir les pixels visés : ça peut être de manière régulière, comme un pixel sur quatre, comme de façon tout à fait aléatoire. Le but serait de pouvoir déterminer au fur et à mesure les prochains pixels à acquérir. Pour cela, nous devrons certainement nous appuyer sur une reconstruction du cube global en temps réel. Nous pourrions ainsi solliciter le moins possible l’échantillon, programmer précisément le microscope et même lui dire quand l’acquisition peut s’arrêter. Autre avantage d’une acquisition partielle : un gain de temps certain ainsi qu’une possibilité de réaliser plusieurs analyses à plusieurs pas de temps, sur une structure biologique qui évolue par exemple. Pour arriver à cet objectif, notre plan de travail est d’établir dans un premier temps une preuve de concept en exploitant des acquisitions complètes qui ont déjà été effectuées, pour réaliser des tests au fur et à mesure que l’on introduit des données dans notre système.

Ce travail en collaboration avec le LPS dans le contexte de la microscopie s’inscrit dans un projet plus large qui vise à la mise au point de nouveaux capteurs hyperspectraux agiles. permettant de diminuer le volume des données acquises. Il faudra donc réaliser des choix importants en termes de positions spatiales et de bandes enregistrées, afin d’obtenir après reconstruction, un cube de données le plus complet possible.

Parcours

Après une thèse de doctorat soutenue en 2007 à l’INP de Toulouse, Nicolas Dobigeon a effectué un séjour post-doctoral à l’Université du Michigan dans le laboratoire du Professeur Alfred O. Hero. En 2008, il a été nommé maître de conférences à l’ENSEEIHT dans le département Électronique et Traitement du Signal. Il y est devenu professeur depuis septembre 2016. Il conduit ses activités de recherche dans l’équipe Signal et Communications de l’Institut de recherche en informatique de Toulouse (IRIT - CNRS/Université Toulouse 1 Capitole/Université Toulouse 2 Jean Jaurès/Université Toulouse 3 Paul Sabatier/INP Toulouse), et il est membre académique du laboratoire coopératif TéSA au travers duquel il entretient des partenariats industriels avec des grands acteurs du spatial.