Conecte-se conosco

Tecnologia

nova IA verifica erros científicos em reportagens

Publicado

em


Pesquisadores desenvolvem ferramenta que usa modelos de linguagem para avaliar a precisão de notícias científicas

IA seguranca
Imagem: Anggalih Prasetya/Shutterstock

Compartilhe esta matéria

Modelos de linguagem como o ChatGPT são notoriamente suscetíveis a “alucinações”, inventando fatos falsos com aparente segurança. Mas e se essas mesmas ferramentas pudessem ser usadas para identificar informações enganosas ou equivocadas — especialmente em reportagens sobre ciência?

Pesquisadores do Stevens Institute of Technology desenvolveram um sistema baseado em IA justamente para isso.

Apresentado em um workshop da Associação para o Avanço da Inteligência Artificial, o projeto usa modelos de linguagem de código aberto para analisar a precisão de notícias sobre descobertas científicas.

Descobertas da pesquisa

  • A equipe, liderada pela professora K.P. Subbalakshmi, criou um conjunto de dados com 2.400 reportagens — reais e geradas por IA — combinadas com resumos técnicos da pesquisa original.
  • A IA compara as afirmações da reportagem com as evidências científicas e avalia sua precisão, usando critérios como exagero, simplificação ou confusão entre causa e correlação.
  • Os modelos conseguiram identificar reportagens confiáveis com cerca de 75% de acerto, sendo mais eficazes ao analisar textos escritos por humanos do que por outras IAs.
  • Segundo Subbalakshmi, isso mostra o desafio de detectar erros técnicos em textos artificialmente bem estruturados.
Ilustração de inteligência artificial em chip
Sistema identifica imprecisões em notícias sobre descobertas científicas com 75% de precisão (Imagem: dee karen/Shutterstock)

Leia mais:

Estudo pode ter aplicações úteis

Além de oferecer um novo recurso para checagem automatizada, o estudo pode servir de base para ferramentas práticas — como plugins que alertem para possíveis distorções em tempo real, ou sistemas de ranqueamento de veículos de mídia com base na precisão científica.

Para Subbalakshmi, o objetivo final é claro: “Não podemos ignorar a presença da IA, mas podemos usá-la para criar sistemas mais confiáveis — e ajudar as pessoas a separar ciência de desinformação.”

Um homem segura na mão uma holografia de um cérebro com um chip de inteligência artificial
Projeto ajuda a combater desinformação de IAs usando os próprios modelos de linguagem – Imagem: Shutter2U / iStock


Leandro Costa Criscuolo

Colaboração para o Olhar Digital

Leandro Criscuolo é jornalista formado pela Faculdade Cásper Líbero. Já atuou como copywriter, analista de marketing digital e gestor de redes sociais. Atualmente, escreve para o Olhar Digital.

Bruno Capozzi

Bruno Capozzi é jornalista formado pela Faculdade Cásper Líbero e mestre em Ciências Sociais pela PUC-SP, tendo como foco a pesquisa de redes sociais e tecnologia.




Fonte:Olhar Digital

Continue Reading
Clique para comentar

Leave a Reply

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *