Sem voz, mulher testa implante e tem pensamentos “traduzidos” em frases

O protótipo não é totalmente preciso e o vocabulário é limitado, por enquanto, a 1.024 palavras. O modelo utiliza um algoritmo baseado em uma técnica de inteligência artificial (IA) denominada aprendizado profundo, treinado anteriormente a partir de milhares de frases da paciente

3

Um implante cerebral que usa inteligência artificial conseguiu transformar quase simultaneamente em fala os pensamentos de uma mulher paralisada, segundo um estudo publicado na revista Nature Neuroscience. Embora só tenha sido testado em uma pessoa até agora, a abordagem, que conecta as ondas do cérebro a um computador, gera a esperança de que outros pacientes que perderam completamente a capacidade de se comunicar possam recuperar sua voz.

A equipe de cientistas, baseada na Califórnia, havia usado anteriormente uma interface cérebro-computador (BCI, na sigla em inglês) para decodificar os pensamentos de Ann, uma mulher tetraplégica de 47 anos, e traduzi-los em fala. No entanto, havia um atraso de oito segundos entre a geração dos pensamentos e a produção da transcrição, lida em voz alta por um computador. 

Isso significa que manter um diálogo fluido estava fora do alcance para Ann, uma professora de matemática do ensino médio, que não consegue falar desde que sofreu um acidente vascular cerebral (AVC) há 18 anos. Mas o novo modelo do dispositivo transformou os pensamentos da mulher em uma versão do que era a sua voz com um atraso de apenas 80 milissegundos. 

“Nossa nova abordagem em tempo real transforma os sinais cerebrais em sua voz personalizada quase que imediatamente em menos de um segundo desde que ela tenta falar”, disse à agência France-Presse o principal autor do estudo, Gopala Anumanchipalli, da Universidade da Califórnia, em Berkeley. O cientista acrescentou que a meta de Ann é se tornar conselheira universitária. “Embora ainda estejamos longe de conseguir isso para Ann, esse avanço nos aproxima mais ao melhorar drasticamente a qualidade de vida das pessoas com paralisia vocal”, afirmou.

Emoção 

Durante o estudo, Ann podia ver orações em uma tela — do tipo, “Então, você me ama” —, que ela dizia para si própria mentalmente. Esses sinais cerebrais eram rapidamente transformados em voz, que os pesquisadores reconstruíram a partir de gravações prévias à sua lesão. “Ann ficou muito emocionada ao escutar sua voz e reportou uma sensação de corporalidade”, disse Anumanchipalli. 

O modelo utiliza um algoritmo baseado em uma técnica de inteligência artificial (IA) denominada aprendizado profundo, treinado anteriormente a partir de milhares de frases que Ann tentou pronunciar silenciosamente. O protótipo não é totalmente preciso e o vocabulário é limitado, por enquanto, a 1.024 palavras.

Por Correio Braziliense

Foto: Noah Berger/Divulgação / Reprodução Correio Braziliense

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui