Depuis de nombreuses années, les neuroscientifiques essaient de décrypter la façon dont le cerveau humain parvient à comprendre la parole dans des conditions acoustiques complexes ou lorsqu’elle est déformée - qu'il s'agisse d'environnements bruyants, d'accents marqués ou de discours rapides. Une avancée publiée dans Nature Computational Science le 26 septembre 2025, par des scientifiques de l’Institut reConnect et de l’ENS PSL, offre une explication avec des perspectives pour la réhabilitation des troubles de la parole et le développement d'interfaces cerveau-machine.
Toute personne a un jour vécu ce moment d’interrogation, au cours d’une discussion, où elle se doit de poser la question ultime à son interlocuteur : « Je n’ai pas compris, peux-tu répéter s’il te plaît ? » Qu’il s’agisse d’un environnement bruyant, ou bien de paroles prononcées furtivement, le cerveau humain doit parfois faire face aux enjeux de compréhension et d’interprétation de mots parfois élusifs. Afin de mieux comprendre les mécanismes employés par le cerveau pour rester à l’écoute quel que soit son environnement, des scientifiques de l’Institut reConnect, de l’ENS-PSL, de l’Inserm et du CNRS ont employé le modèle BRyBI (Brain Rhythm-based Inference), un modèle neuro-computationnel inférentiel. Ils ont ainsi réussi à identifier la façon dont le cerveau utilise les rythmes cérébraux (des oscillations internes) dans le cortex auditif.
« Nous avons cherché à comprendre comment les rythmes cérébraux peuvent concrètement nous aider à analyser et prédire la parole », explique Olesia Dogonasheva, chercheuse Inserm et première auteurice de l’étude (Institut reConnect, Inserm, ENS-PSL).
Grâce au modèle BRyBI, l’équipe de recherche a observé que les rythmes cérébraux dans le cortex auditif travaillent ensemble pour :
Une autre découverte intéressante réside dans la capacité du modèle à expliquer comment les rythmes cérébraux sont différemment impliqués selon le niveau d’information de la parole, si elle est prévisible ou surprenante.
« Notre modèle démontre le rôle crucial des rythmes cérébraux à différentes échelles dans la prédiction et la compréhension du langage parlé », souligne Anne-Lise Giraud, Professeure à l’Institut Pasteur, détachée du CNRS, et co-auteure de l’étude. « Au-delà d'un simple mécanisme neuronal, BRyBI révèle comment notre cerveau est capable de transformer des vibrations sonores en signification linguistique », ajoute la directrice de l’Institut reConnect et responsable de l’unité Neurospeech à l’Institut de l’Audition (Institut Pasteur, Inserm, CNRS).
« Ces travaux de recherche apportent de nouvelles connaissances dans la compréhension du traitement de la parole. Ils soulignent la sophistication de notre cerveau, capable de décoder la parole à travers un orchestre complexe de rythmes neuronaux, nous permettant de communiquer efficacement malgré les nombreux obstacles acoustiques de notre environnement quotidien », ajoute Boris Gutkin, dernier auteur de l’étude, et membre du laboratoire des Neurosciences cognitives et computationnelles à l’ENS-PSL (Inserm U960).
A travers cette étude, de nouvelles perspectives s'ouvrent pour la réhabilitation des troubles de la parole, le développement d'interfaces cerveau-machine et une meilleure compréhension des mécanismes de communication.
EN SAVOIR PLUS
Dogonasheva, O., Doelling, K.B., Zakharov, D. et al. Rhythm-based hierarchical predictive computations support acoustic−semantic transformation in speech processing. Nat Comput Sci 5, 915–926 (2025). https://doi.org/10.1038/s43588-025-00876-9