Accueil du site > Vie de la recherche > Actualités scientifiques




Recherchez sur ce site


Gérard Berry et les neurosciences

Gérard Berry s’intéresse actuellement aux neurosciences, discipline scientifique en plein essor. En quoi les sciences de l’information influencent-elles les recherches en neurosciences, et en quoi consistent les échanges conceptuels entre ces deux domaines ? C’est la question posée à Yves Frégnac, Directeur de Recherche au CNRS, directeur de l’Unité de Neuroscience, Information et Complexité (UNIC, CNRS) et Professeur en Sciences Cognitives à l’Ecole Polytechnique, et Sophie Denève, chargée de recherche au Laboratoire de neurosciences cognitives (LNC, CNRS/Université Aix-Marseille).

Cet article est publié dans le cadre de notre série consacrée aux travaux de Gérard Berry, lauréat de la médaille d’or du CNRS en 2014.

Qu’est-ce que les travaux de Gérard Berry ont directement ou indirectement pu apporter, et apportent aujourd’hui, aux neurosciences ?

Yves Frégnac : L’originalité profonde de la démarche scientifique de Gérard Berry est de mon point de vue la pratique et l’éloge de l’interdisciplinarité. Une partie importante de son activité, en dehors du champ spécifique de l’informatique où il excelle [1], est de susciter chez ses interlocuteurs une réflexion sur le calcul (au sens algorithmique) et la synchronie dans des domaines autres que l’informatique et les techniques numériques.

Prenons l’exemple des Sciences Cognitives. Une des métaphores les plus discutées pour comprendre les facultés prodigieuses du cerveau (comme l’abstraction des raisonnements et la compositionnalité du langage) est de considérer le cerveau comme un ordinateur travaillant sur des symboles, à la manière d’une machine de Turing [2]. Traditionnellement, pour comprendre les processus informationnels utilisés par le cerveau, les ingénieurs et théoriciens des neurosciences ne s’intéressent qu’à l’information propagée, de type tout ou rien (donc binaire), codée par les séries temporelles de potentiels d’action émis par chaque neurone. Pourtant les neurobiologistes décrivent la même boite noire par un « hardware » biologique (neurones, synapses, glie etc..) obéissant à des règles biophysiques complexes d’intégration multi-échelle et d’adaptation. A la différence des ordinateurs, le calcul neuronal est en grande partie asynchrone et s’appuie sur des signaux à la fois digitaux (potentiels d’action) et analogiques (changements de potentiels de membrane sous liminaires). Gérard Berry s’intéresse aux concepts nouveaux pouvant émerger de la biologie et qui pourraient être mis à profit dans le domaine de l’algorithmie et du traitement des signaux électroniques.

Gérard Berry a créé récemment un groupe de travail multidisciplinaire (Chronos [3]) auquel je participe, composé d’experts venant de disciplines très diversifiées (neurosciences, neuroinformatique, imagerie médicale, sciences de l’homme et musicologie, bioinformatique, avionique..). Le but de ces rencontres atypiques est d’extraire des processus spécifiques à chaque discipline (dynamique neuronale et évènementielle pour les neurosciences) qui font écho à une algorithmie générique commune pour traiter les problèmes de « temps » et de « synchronie ». Le pari du dialogue initié par Gérard Berry est d’autant plus difficile que l’implémentation de chacun des processus utilise des substrats de nature profondément différente (par exemple les rythmes oscillatoires enregistrés dans l’Électroencéphalogramme de patients humains et la synchronisation des flux sonores dans une partition musicale de Pierre Boulez). Un travail collaboratif en profondeur est donc guidé par Gérard Berry pour dépasser le stade de la simple métaphore. Il faudra attendre l’interpénétration des concepts d’une discipline à une autre pour juger de la réussite de cette entreprise autant visionnaire qu’audacieuse.

Lorsque l’on évoque les liens entre informatique et neurosciences on pense bien sûr aux techniques très utilisées d’imagerie médicale. Mais quelles sont les autres applications courantes ?

Y.F. : Les liens sont en fait permanents et interviennent dans toutes les phases de la recherche en neurosciences. Les ordinateurs contrôlent l’acquisition et le traitement en temps réel des données biologiques, souvent à l’aide de langages optimisés qui ne sont pas sans rappeler les logiciels développés par Gérard Berry dans le domaine de l’aéronautique. Ces mêmes ordinateurs contrôlent les protocoles de stimulation externe (par exemple via l’activation des organes sensoriels) et interne du cerveau (par exemple via l’activation de neuroprothèses et de la stimulation magnétique trans-crânienne (TMS)). Au niveau de l’exploitation des données dont le volume s’accroit exponentiellement avec les avancées technologiques, l’informatique va du simple stockage (sur site ou dans des « clouds » délocalisés) à la construction de bases de données et méta-données contextuelles (domaine des Big Data et de la neuro-informatique) en passant par la production de modèles théoriques du fonctionnement interne du cerveau, permettant à terme une simulation réaliste mais virtuelle des processus cérébraux (domaine des neurosciences computationnelles).

Sophie Denève : L’informatique apporte effectivement des outils d’étude en neurosciences, en particulier pour l’interprétation des données expérimentales. De plus en plus, celles-ci se caractérisent par un très grand nombre d’enregistrements, mesurant l’activité des neurones dans le cerveau à différentes échelles. Au niveau microscopique, nous sommes capables depuis longtemps de suivre à l’aide d’électrodes le courant électrique d’un neurone, voire de plusieurs simultanément. Au niveau macroscopique, nous pouvons effectivement acquérir grâce à l’imagerie une activité moyenne électrique globale de toute une région du cerveau. Il faut noter que ces techniques ne cessent de s’améliorer, des méthodes se généralisent désormais pour recueillir l’activité de plusieurs centaines, voire plusieurs milliers de neurones en même temps. Vous imaginez alors la difficulté de traitement d’une telle quantité de données, sans cesse croissante, d’autant que chaque laboratoire possède sa méthode d’analyse pour extirper de la complexité de l’activité neuronale les informations qu’il juge importantes. C’est pourquoi, les méthodes de traitement du signal en provenance de l’informatique, et la gestion de bases de données, comme celles utilisées dans le Big Data, entrent en ligne de compte pour réaliser un travail neuroscientifique sérieux. Ces savoirs vont être, à mon sens, absolument indispensables et de plus en plus étroitement associés aux techniques d’enregistrement de neurones.

Les sciences de l’information apportent aujourd’hui de nouvelles pistes de recherche aux neurosciences. Pouvez-vous expliquer en quoi elles consistent ?

S.D. : Le champ d’application des sciences informatiques à celui du cerveau est ce que l’on nomme « neurosciences computationnelles ». Ce sous-domaine des neurosciences a été très influencé par la théorie de l’information, à travers laquelle on considère le neurone (ou un réseau de neurones) comme un objet abstrait avec une entrée, une sortie, et où l’intérêt se porte sur la différence de signaux enregistrés entre les deux. Lorsqu’il est émis en entrée, un signal va atteindre la sortie en ayant accumulé une certaine quantité de bruit, et l’on cherche à récupérer l’information de la façon la plus précise possible. En informatique, la qualité de l’information transmise dépend de la distance entre l’entrée et la sortie, principe que l’on tente de transposer en neurosciences.

En théorie de l’information classique, on utilise le système binaire, dans lequel les mots sont codés par des séquences de 0 et de 1. Transposé aux neurosciences, cela voudrait dire que les motifs de potentiels d’action du cerveau pourraient représenter des informations précises. Mais ces corrélations sont difficiles à trouver, sont controversées, et on ne peut pas toujours les identifier. Le problème de cette approche en neurosciences est que le signal de sortie représente bien celui d’entrée, mais nous ne sommes pas capables de décoder l’information, c’est-à-dire de corréler un signal à une action déclenchée.

Selon cette théorie, on va également utiliser le principe d’optimalité, c’est-à-dire qu’on doit faire en sorte que le système, en l’occurrence le cerveau, fonctionne au mieux avec des ressources limitées. L’information doit être transmise de la façon la plus simple possible et avec un coût métabolique minimal.

La limite de l’application de la théorie de l’information au cerveau, est que la transmission d’information ne peut pas tout expliquer. Nous faisons des choix comportementaux, et donc un tri parmi l’ensemble des informations pour discriminer celles qui sont réellement utiles. Certaines informations ne sont pas conservées dans le cerveau.

Y.F. : Les neurosciences computationnelles s’intéressent à la modélisation du vivant, aussi bien au niveau du fonctionnement membranaire qu’au niveau de l’émergence des fonctions intégrées et cognitives. Je restreindrai ma réponse à un versant particulier : les développements des techniques numériques ont un impact important sur les interactions en temps réel entre l’observation du fonctionnement du cerveau, son interprétation et les actions pouvant être menées à partir de cette connaissance. Les deux exemples les plus aboutis sont celui de la lecture des pensées en imagerie cérébrale (« mind-reading ») et des interfaces cerveau-machine (BMI : « brain machine interface »), où le signal extrait de l’activité du cerveau est décodé en temps quasi-réel pour mobiliser un artefact (par exemple un membre artificiel articulé). Le premier exemple s’appuie sur des travaux en neuroimagerie et intéresse le monde de l’économie, des finances et de l’armée pour des raisons évidentes (permettre de lire les pensées en temps quasi-réel et influencer les décisions d’un opérateur humain). La deuxième technologie a des applications évidentes dans le domaine de la santé et la médecine, en permettant aux patients paralysés ou coupés du monde extérieur (cas du « locked-in syndrome » [4]) de contrôler par la pensée les fonctions perdues (comme atteindre une nourriture, marcher, dicter un texte ou converser sur le web).

Par ailleurs, en raison de l’accélération du calcul, les technique les plus sophistiquées permettent d’établir en temps réel - au niveau microscopique - des dialogues hybrides entre neurones biologiques (in situ) et des neurones artificiels dont l’action est simulée au travers de synapses virtuelles [5]. On peut envisager à terme de greffer des instructeurs artificiels au sein du cerveau permettant de rééduquer des circuits lésés en imposant une synchronie perdue entre les neurones encore fonctionnels. Une nouvelle ère bionique et cybernétique est en gestation et intéresse les géants de l’informatique comme Google [6], IBM (Blue Brain [7]) et les militaires comme la DARPA aux États-Unis (Synapse [8]).

Si l’informatique apporte de nouvelles méthodes d’analyse aux neurosciences, les neurosciences éclairent-elles parfois les recherches en informatique ?

Y.F. : L’informatique traditionnelle fournit des outils de simulation qui reposent principalement sur le principe d’un calcul séquentiel. Le temps de simulation augmente donc linéairement avec le nombre des boucles itératives par le logiciel, et devient prohibitif pour la simulation de systèmes complexes comme la météorologie ou le cerveau humain. A la différence des machines binaires de von Neumann, une nouvelle génération de plateformes de calcul dites « neuromorphiques » s’appuie sur une électronique mixte, analogique et digitale, permettant un parallélisme des opérations inégalé par les techniques numériques classiques. Ces architectures de calcul s’inspirent dans leur conception du fonctionnement dynamique du cerveau et de nos connaissances sur sa biophysique interne qui est multi-échelle. Ces connaissances proviennent pour la plupart d’efforts concertés entre neuroscientifiques expérimentaux et théoriciens d’une part, et physiciens électroniciens et théoriciens de l’informatique d’autre part.

A titre d’exemple non limitatif, mon laboratoire CNRS (UNIC : Unité de Neurosciences, Information et Complexité) a participé au cours des quinze dernières années à la construction et au pilotage au niveau Européen de réseaux interdisciplinaires d’excellence soutenus par des contrats de la Division FET (Future Emerging Technologies) qui sont considérés comme ayant un rôle fondateur dans les technologies du calcul neuromorphique [9].

L’objectif scientifique de ces consortia était d’extraire, à partir des Neurosciences, des principes généraux de calcul neuronal et des règles de plasticité, pour les implémenter électroniquement par des circuits analogiques de basse consommation électrique, miniaturisés et distribués (de type VLSI (very large scale integration)). Ces calculateurs électroniques neuromorphiques travaillent 10 000 à 100 000 fois plus vite que le cerveau biologique. Ils ressemblent dans leur architecture hautement parallèle et distribuée à nos réseaux corticaux et pourraient servir à construire des ordinateurs d’un nouveau type, qui ne soient pas une machine itérative de von Neumann (donc lente). L’espoir technologique, qui reste à confirmer, serait de disposer de calculateurs ultrarapides (dont le temps de simulation dépend peu de la taille du problème à traiter). Il deviendrait alors possible de simuler des processus d’évolution en des temps très inférieurs au temps biologique !

A l’ère de la domination des « Big Data », il n’est donc pas étonnant que le versant technologique lié à la simulation neuronale soit devenu à présent un enjeu scientifique international de premier plan et différentes approches digitales, analogiques ou mixtes sont actuellement explorées par des compagnies aussi diverses que les grandes sociétés informatiques, les développeurs de puces informatiques (ARM, SpiNNaker), les contrôleurs du Web (Google) et les centres de recherche militaires. L’Europe vient de lancer un plan de financement sans précédent (500 Millions d’Euros) pour réunir dans un même programme « étendard (flagship) » centré autour de la thématique de la simulation du cerveau humain « the Human Brain Project » [10]. Ce consortium soutenu par une centaine d’Institutions inclut les centres de recherche les plus avancés en neuroinformatique, calcul numérique large échelle du type HPC (high-performance computing) et calcul neuromorphique.

La communauté scientifique dans son ensemble paraît cependant peu préparée à une industrialisation des Neurosciences. Dans cet exemple rare d’un impact démontré des neurosciences sur le monde des technologies numériques, le lien initial interdisciplinaire s’est, de façon inattendue, progressivement dissous [11]. D’une manière paradoxale et possiblement dommageable pour l’avenir, le Flagship Européen a été repris en main par le domaine technologique des STIC et le risque existe que la communauté des neurosciences devienne orpheline d’une technologie qui lui était initialement destinée ! Espérons que l’Europe prenne ses responsabilités dans une meilleure gestion de l’interdisciplinarité.

Retrouvez les autres articles de notre série :

Références :
1. Médaille d’Or 2014 du CNRS.
2. Métaphore célèbre introduite par Steven Pinker (2002) dans le domaine de l’intelligence artificielle et réfutée par Francisco Varéla, un célèbre neuroscientifique et philosophe.
3. ANR Chronos.
4. « Le Scaphandre et le Papillon » est un ouvrage autobiographique de Jean-Dominique Bauby (1997).
5. Le résultat des équations de membrane est exprimé comme un courant entrant dans le neurone biologique qui est injecté au travers de l’électrode d’enregistrement. En d’autres termes, sur des cycles très rapides (milliseconde ou moins), l’électrode enregistre le potentiel de membrane qui est lu par un ordinateur (solution software) ou une puce électronique dédiée (solution hardware) pour résoudre instantanément l’équation correspond au circuit neuronal. Le résultat du calcul est réinjecté immédiatement comme un courant synaptique au travers de l’électrode d’enregistrement. Ce courant traduit l’activité instantanée de la synapse artificielle liant le neurone modèle au neurone biologique.
6. Google-Brain
7. IBM Blue Brain
8. DARPA Synapse
9. Projets Intégrés : FACETS (Fast Analog Computing with Emergent Transient States) et BRAINSCALES.
10. « The Human Brain Project »
11. Frégnac, Y. and Laurent, G. (2014). Where is the brain in the Human Brain Project. Nature Comments. Nature, Sep 4th 2014, 513 : 27-29. Supplementary to be found here.