No Canadá, inteligência artificial identifica depressão pela voz

Henrique Freitas, editado por Rafael Rigues
Inteligência Artificial (iStock)
Compartilhe com seus seguidores

Modelo desenvolvido por estudante da Universidade de Alberta diagnostica pacientes com uma taxa de sucesso de mais de 70%

Nossa voz pode transmitir pistas sutis sobre nosso humor e estado psicológico. Na Universidade de Alberta, no Canadá, essa ideia inspirou o desenvolvimento de uma inteligência artificial capaz de captar essas pistas e ajudar pessoas com problemas de saúde mental. Um modelo apresentado por Mashrura Tasnim, estudante de doutorado em Ciências da Computação, pode reconhecer estas pistas na fala de indivíduos com depressão. 


O objetivo da estudante é criar um aplicativo para smartphone que monitore as conversas dos usuários e avise seus contatos de emergência ou profissionais de saúde ao detectar o quadro depressivo. Seu trabalho foi apresentado na Conferência Canadense de Inteligência Artificial, em maio, e a máquina obteve sucesso em mais de 70% nos diagnósticos.

Tasnim usou um conjunto de quase 500 arquivos de áudio de participantes deprimidos e não deprimidos para refinar seus algoritmos. Ela explica que as diferenças são muito numerosas e sutis para facilitar o reconhecimento. Para cada gravação de voz, medições numéricas foram feitas para cerca de 2.200 recursos a cada 20 segundos, incluindo volume, ritmo, pausas e faixas de frequência.

O estudo se junta a uma enorme coletânea de pesquisas que procuram aliar a IA ao diagnóstico e tratamento de problemas de saúde mental. Pesquisadores do Massachusetts Institute of Technology (MIT), por exemplo, desenvolveram um modelo de aprendizado de máquina que prevê se a pessoa está deprimida com base em recursos de áudio e transcrições de suas interações. O Facebook usa um sistema semelhante para verificar posts e sinalizar usuários em risco de suicídio.

Não é uma tecnologia consolidada

Embora muitos pesquisadores acreditem no potencial dessas tecnologias, outros também alertam para possíveis riscos sérios. "Esse tipo de coisa é realmente empolgante porque, no momento, não temos boas maneiras de identificar pessoas que possam se beneficiar da ajuda", afirma Brett Thombs, professor de Psiquiatria da McGill University, em Montreal. Por outro lado, ele comenta: "As pessoas precisam ter muito cuidado para que a implementação da tecnologia não cause muitos danos, antes mesmo que seus benefícios sejam confirmados."

O grande problema, de acordo com Thombs, é que, até agora, não há evidências que mostrem que a avaliação da saúde mental fornece algum benefício. Os questionários de triagem de saúde mental usados nos consultórios podem, de fato, ajudar os profissionais no diagnóstico dos pacientes. Mas a identificação do problema como um transtorno mental não é, em si, um benefício. Ao menos, não sem uma ação convicta de suporte ao paciente logo em seguida.

Tasnim pondera, também, que os desenvolvedores de aplicativos precisam ter cuidado para proteger a privacidade e a segurança dos usuários. Ela pretende criar seu próprio app para acompanhar as interações e usar apenas as medidas numéricas das vozes, não o conteúdo de suas conversas. O aplicativo só enviaria notificações para aqueles que os usuários registraram como contatos de emergência.

Se as ferramentas de inteligência artificial vão levar a melhores resultados para os pacientes, ainda não se sabe. Mas, para que essas tecnologias sejam eficazes, Tasnim acrescenta, a ajuda deve estar disponível quando necessária. "Se sabemos [que alguém precisa de ajuda] e não fazemos nada, isso não tem utilidade alguma."

Fonte: The Globe and Mail

Saúde Inteligência Artificial Canadá psicologia
Curtiu esse conteúdo? Assine nossas newsletters e fique por dentro do que acontece em primeira mão!
Compartilhe com seus seguidores
Assine nossa newsletter!
Parabéns! Sua assinatura foi recebida com sucesso!
Atenção: Em instantes você receberá um email de confirmação da assinatura. Para efetivá-la, clique no link de confirmação que você receberá. Verifique também sua caixa de SPAM, pois por se tratar de um email automático, seu servidor de emails poderá identificar incorretamente a mensagem como não solicitada.