La technologie pourrait conduire à une communication plus naturelle pour les personnes souffrant de troubles de la parole –

Des chercheurs de l’UC San Francisco ont développé avec succès une “neuroprothèse de la parole” qui a permis à un homme gravement paralysé de communiquer par phrases, traduisant les signaux de son cerveau vers les voies vocales directement en mots qui apparaissent sous forme de texte sur un écran.
La réalisation, qui a été développée en collaboration avec le premier participant d’un essai de recherche clinique, s’appuie sur plus d’une décennie d’efforts du neurochirurgien UCSF Edward Chang, MD, pour développer une technologie qui permet aux personnes atteintes de paralysie de communiquer même si elles sont incapables de parler par eux-mêmes. L’étude paraît le 15 juillet dans le Journal de médecine de la Nouvelle-Angleterre.
“À notre connaissance, il s’agit de la première démonstration réussie de décodage direct de mots complets à partir de l’activité cérébrale d’une personne paralysée et incapable de parler”, a déclaré Chang, chaire Joan et Sanford Weill de chirurgie neurologique à l’UCSF, professeure distinguée Jeanne Robertson. , et auteur principal de l’étude. “Cela est très prometteur pour restaurer la communication en exploitant la machinerie naturelle de la parole du cerveau.”
Chaque année, des milliers de personnes perdent la capacité de parler en raison d’un accident vasculaire cérébral, d’un accident ou d’une maladie. Avec le développement ultérieur, l’approche décrite dans cette étude pourrait un jour permettre à ces personnes de communiquer pleinement.
Traduire les signaux du cerveau en parole
Auparavant, les travaux dans le domaine de la neuroprothèse de la communication se sont concentrés sur la restauration de la communication grâce à des approches basées sur l’orthographe pour taper les lettres une par une dans le texte. L’étude de Chang diffère de ces efforts d’une manière critique : son équipe traduit des signaux destinés à contrôler les muscles du système vocal pour prononcer des mots, plutôt que des signaux pour déplacer le bras ou la main pour permettre la frappe. Chang a déclaré que cette approche exploite les aspects naturels et fluides de la parole et promet une communication plus rapide et organique.
“Avec la parole, nous communiquons normalement des informations à un rythme très élevé, jusqu’à 150 ou 200 mots par minute”, a-t-il déclaré, notant que les approches basées sur l’orthographe utilisant la dactylographie, l’écriture et le contrôle d’un curseur sont considérablement plus lentes et plus laborieuses. “Aller directement aux mots, comme nous le faisons ici, présente de grands avantages car c’est plus proche de la façon dont nous parlons normalement.”
Au cours de la dernière décennie, les progrès de Chang vers cet objectif ont été facilités par les patients du centre d’épilepsie de l’UCSF qui subissaient une neurochirurgie pour identifier les origines de leurs crises à l’aide de réseaux d’électrodes placés à la surface de leur cerveau. Ces patients, qui avaient tous une parole normale, se sont portés volontaires pour que leurs enregistrements cérébraux soient analysés pour l’activité liée à la parole. Les premiers succès obtenus avec ces patients volontaires ont ouvert la voie à l’essai actuel chez les personnes atteintes de paralysie.
Auparavant, Chang et ses collègues de l’UCSF Weill Institute for Neurosciences ont cartographié les schémas d’activité corticale associés aux mouvements des voies vocales qui produisent chaque consonne et voyelle. Pour traduire ces résultats en reconnaissance vocale de mots complets, David Moses, PhD, ingénieur postdoctoral au laboratoire Chang et l’un des principaux auteurs de la nouvelle étude, a développé de nouvelles méthodes de décodage en temps réel de ces modèles et des modèles de langage statistiques pour améliorer la précision.
Mais leur succès dans le décodage de la parole chez les participants capables de parler ne garantissait pas que la technologie fonctionnerait chez une personne dont les voies vocales sont paralysées. “Nos modèles devaient apprendre la correspondance entre les schémas complexes d’activité cérébrale et le discours prévu”, a déclaré Moses. “Cela pose un défi majeur lorsque le participant ne peut pas parler.”
De plus, l’équipe ne savait pas si les signaux cérébraux contrôlant le conduit vocal seraient toujours intacts pour les personnes qui n’ont pas pu bouger leurs muscles vocaux depuis de nombreuses années. “La meilleure façon de savoir si cela pouvait fonctionner était de l’essayer”, a déclaré Moses.
Les 50 premiers mots
Pour étudier le potentiel de cette technologie chez les patients atteints de paralysie, Chang s’est associé à son collègue Karunesh Ganguly, MD, PhD, professeur agrégé de neurologie, pour lancer une étude connue sous le nom de “BRAVO” (Restauration de l’interface cerveau-ordinateur du bras et de la voix). Le premier participant à l’essai est un homme d’une trentaine d’années qui a subi un accident vasculaire cérébral dévastateur il y a plus de 15 ans qui a gravement endommagé la connexion entre son cerveau et ses voies vocales et ses membres. Depuis sa blessure, il a eu des mouvements extrêmement limités de la tête, du cou et des membres, et communique en utilisant un pointeur attaché à une casquette de baseball pour insérer des lettres sur un écran.
Le participant, qui a demandé à être appelé BRAVO1, a travaillé avec les chercheurs pour créer un vocabulaire de 50 mots que l’équipe de Chang pourrait reconnaître à partir de l’activité cérébrale à l’aide d’algorithmes informatiques avancés. Le vocabulaire – qui comprend des mots tels que “eau”, “famille” et “bien” – était suffisant pour créer des centaines de phrases exprimant des concepts applicables à la vie quotidienne de BRAVO1.
Pour l’étude, Chang a implanté chirurgicalement un réseau d’électrodes à haute densité sur le cortex moteur de la parole de BRAVO1. Après le rétablissement complet du participant, son équipe a enregistré 22 heures d’activité neuronale dans cette région du cerveau sur 48 séances et plusieurs mois. À chaque session, BRAVO1 a tenté de prononcer plusieurs fois chacun des 50 mots de vocabulaire pendant que les électrodes enregistraient les signaux cérébraux de son cortex de la parole.
Traduire une tentative de discours en texte
Pour traduire les schémas d’activité neuronale enregistrés en mots spécifiques, les deux autres auteurs principaux de l’étude, Sean Metzger, MS et Jessie Liu, BS, tous deux doctorants en bio-ingénierie au Chang Lab ont utilisé des modèles de réseaux neuronaux personnalisés, qui sont des formes de intelligence artificielle. Lorsque le participant tentait de parler, ces réseaux distinguaient des schémas subtils de l’activité cérébrale pour détecter les tentatives de parole et identifier les mots qu’il essayait de dire.
Pour tester leur approche, l’équipe a d’abord présenté à BRAVO1 des phrases courtes construites à partir des 50 mots de vocabulaire et lui a demandé d’essayer de les répéter plusieurs fois. Au fur et à mesure de ses tentatives, les mots ont été décodés de son activité cérébrale, un par un, sur un écran.
Ensuite, l’équipe est passée à lui poser des questions telles que « Comment allez-vous aujourd’hui ? » et “Voulez-vous de l’eau?” Comme précédemment, la tentative de discours de BRAVO1 est apparue à l’écran. « Je vais très bien » et « Non, je n’ai pas soif ».
L’équipe a découvert que le système était capable de décoder les mots à partir de l’activité cérébrale à une vitesse allant jusqu’à 18 mots par minute avec une précision allant jusqu’à 93 pour cent (moyenne de 75 pour cent). Le modèle de langage appliqué par Moses a contribué au succès et a mis en œuvre une fonction de « correction automatique », similaire à celle utilisée par les logiciels de reconnaissance vocale et de textos grand public.
Moïse a qualifié les premiers résultats du procès de preuve de principe. “Nous avons été ravis de voir le décodage précis d’une variété de phrases significatives”, a-t-il déclaré. “Nous avons montré qu’il est réellement possible de faciliter la communication de cette manière et qu’il a un potentiel d’utilisation dans des contextes de conversation.”
Pour l’avenir, Chang et Moses ont déclaré qu’ils élargiraient l’essai pour inclure davantage de participants touchés par une paralysie sévère et des déficits de communication. L’équipe travaille actuellement à augmenter le nombre de mots dans le vocabulaire disponible, ainsi qu’à améliorer le débit de parole.
Les deux ont déclaré que bien que l’étude se soit concentrée sur un seul participant et un vocabulaire limité, ces limitations ne diminuent pas l’accomplissement. “Il s’agit d’une étape technologique importante pour une personne qui ne peut pas communiquer naturellement”, a déclaré Moses, “et cela démontre le potentiel de cette approche pour donner une voix aux personnes atteintes de paralysie sévère et de perte de la parole.”
Les co-auteurs de l’article incluent Sean L. Metzger, MS; Jessie R. Liu ; Gopala K. Anumanchipalli, PhD; Joseph G. Makin, PhD; Pengfei F. Sun, PhD; Josh Chartier, Ph.D. ; Maximilian E. Dougherty; Patricia M. Liu, MA; Gary M. Abrams, MD; et Adelyn Tu-Chan, DO, tous de l’UCSF. Les sources de financement comprenaient les National Institutes of Health (U01 NS098971-01), la philanthropie et un accord de recherche parrainé avec Facebook Reality Labs (FRL), qui s’est achevé au début de 2021.
Les chercheurs de l’UCSF ont mené toute la conception, l’exécution, l’analyse des données et les rapports des essais cliniques. Les données des participants à la recherche ont été collectées uniquement par l’UCSF, sont conservées de manière confidentielle et ne sont pas partagées avec des tiers. FRL a fourni des commentaires de haut niveau et des conseils d’apprentissage automatique.