Le dispositif, encore expérimental, utilise un implant reliant des aires du cerveau à des ordinateurs et pourrait permettre à des personnes ayant perdu la capacité de communiquer de retrouver une forme d'accès à la parole.
L'équipe de chercheurs, basée en Californie, avait utilisé précédemment une interface cerveau-ordinateur pour décoder les pensées d'Ann, une tétraplégique de 47 ans, avant de les transcrire en paroles.
Mais l'opération imposait un délai de huit secondes entre le moment où la patiente pensait à ce qu'elle voulait dire et celui où une voix artificielle générée par ordinateur l'exprimait.
Une contrainte pour les conversations que menait Ann, une ancienne professeure de mathématiques ayant perdu l'usage de la parole après une crise cardiaque survenue il y a 18 ans.
La nouvelle interface de l'équipe, annoncée dans la revue Nature Neuroscience, réduit l'intervalle entre ses pensées et les paroles à 80 millisecondes.
"Notre nouvelle méthode de diffusion en continu convertit les signaux cérébraux en voix personnalisée en temps réel, dans la seconde suivant son intention de parler", a expliqué à l'AFP le principal auteur de l'étude, Gopala Anumanchipalli, de l'Université de Californie.
L'objectif de l'ex-enseignante est de devenir conseillère d'orientation universitaire, a-t-il précisé. "Même si nous sommes encore loin d'atteindre ce but pour Ann, cette étape devrait nous permettre à terme d'améliorer considérablement la qualité de vie des individus victimes de paralysie vocale", selon lui.
Pour ces recherches, on a montré à Ann des phrases sur un écran, comme par exemple "tu m'aimes donc", qu'elle prononçait ensuite dans sa tête.
Ces phrases étaient ensuite converties dans une réplique de sa voix, construite à l'aide d'enregistrements datant d'avant son accident. La patiente "était enthousiaste d'entendre sa voix et avait le sentiment qu'elle était ainsi incarnée", selon M. Anumanchipalli.
L'interface cerveau-ordinateur intercepte le signal cérébral "après qu'on a décidé ce qu'on veut dire, après qu'on a choisi quels mots utiliser et comment mouvoir les muscles du conduit vocal", a expliqué le chercheur.
Le modèle a mis à profit une méthode d'intelligence artificielle par apprentissage profond avec un entraînement sur des milliers de phrases qu'Ann a prononcé dans sa tête.
Le modèle, qui n'est pas exempt d'erreurs, fonctionne avec un vocabulaire encore limité à 1.024 mots.
Cette recherche est encore au stade de "preuve de principe très précoce", a estimé auprès de l'AFP le professeur en neuroprothèse Patrick Degenaar, de l'université britannique de Newcastle (Grande-Bretagne), pas inclus dans cette étude. Tout en la qualifiant de "très cool".
Il a noté que la méthode utilise un faisceau d'électrodes qui ne pénètre pas le cerveau, à la différence de l'interface que propose la société Neuralink du milliardaire américain Elon Musk.
La chirurgie pour poser un tel faisceau d'électrodes est assez courante dans les services d'hôpitaux spécialisés dans le diagnostic d'épilepsie. Ce qui devrait faciliter son déploiement pour des patients atteints de troubles de l'élocution, selon le Pr. Degenaar.
Avec un financement ad hoc de la recherche dans ce domaine, Gopala Anumanchipalli estime que cette technologie pourrait être déployable d'ici cinq à dix ans.