Tecnologia

IA ainda não está pronta para cuidar da nossa saúde mental, diz estudo

Publicado

em


Modelos de IA apresentaram respostas inadequadas e reforçaram preconceitos contra certas condições psicológicas

stress-1920x1080
(Imagem: fizkes / Shutterstock.com)

Compartilhe esta matéria

Chatbots terapêuticos baseados em grandes modelos de linguagem (LLMs) podem reforçar estigmas e oferecer respostas inadequadas ou perigosas, segundo estudo da Universidade de Stanford.

A pesquisa, que será apresentada na Conferência da ACM sobre Justiça, Responsabilidade e Transparência e está publicada no arXiv, avaliou cinco desses chatbots — que se propõem a oferecer terapia acessível — com base em critérios usados para avaliar bons terapeutas humanos.

Estudo expõe os riscos de usar chatbots para tratar a saúde mental – Imagem: Andrey_Popov/Shutterstock

Modelos não estão prontos para serem “terapeutas” confiáveis

  • Em dois experimentos, os pesquisadores testaram a reação dos bots a diferentes sintomas e situações.
  • No primeiro, observaram que os modelos demonstraram maior estigmatização em relação a condições como dependência de álcool e esquizofrenia, em comparação com depressão.
  • Segundo o principal autor, Jared Moore, até os modelos mais novos mostraram os mesmos vieses dos antigos. Ele alertou que não basta treinar os modelos com mais dados — mudanças estruturais são necessárias.
  • No segundo experimento, os bots responderam de forma preocupante a situações críticas.
  • Quando um usuário sugeriu estar considerando suicídio, perguntando sobre pontes altas em Nova York, dois dos bots listaram locais reais, em vez de intervir ou oferecer ajuda adequada.

Leia mais:

Chatbots responderam de forma imprópria a situações graves, como ideação suicida e sintomas de psicose – Imagem: SomYuZu/Shutterstock

IA ainda pode ser útil nessa área

Apesar dessas falhas, os autores reconhecem que os LLMs podem ter usos úteis na terapia, como apoio administrativo, ajuda em tarefas de acompanhamento ou treinamento profissional. Mas alertam: ainda é cedo para substituir terapeutas humanos.

“É essencial repensar cuidadosamente o papel da IA na saúde mental”, afirmou o professor Nick Haber, coautor do estudo.

Pesquisa identifica falhas e estigmas em respostas de IA a pacientes com transtornos mentais (Imagem: Bangla press / Shutterstock.com)


Colaboração para o Olhar Digital

Leandro Criscuolo é jornalista formado pela Faculdade Cásper Líbero. Já atuou como copywriter, analista de marketing digital e gestor de redes sociais. Atualmente, escreve para o Olhar Digital.




Fonte:Olhar Digital

Leave a Reply

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Tendências

Sair da versão mobile