COMPROVA EXPLICA | Notícia

Ferramentas de IA podem falhar em checagens e buscas; entenda por quê

Ferramentas são treinadas com grandes volumes de informação e podem reproduzir erros, com respostas desatualizadas ou informações incorretas

Por Thiago Seabra Publicado em 11/06/2025 às 13:28 | Atualizado em 11/06/2025 às 13:30

O uso de ferramentas de Inteligência Artificial como fonte de informação é cada vez mais comum, mas os resultados podem ser imprecisos, provocar danos ou até colocar em risco a saúde de pessoas que seguem orientações sem validá-las com fontes confiáveis.

O problema se agrava quando a IA responde sobre temas frequentemente alvo de desinformação, como vacinas contra a covid-19.

Mesmo informações já desmentidas por órgãos oficiais e estudos científicos podem ser reproduzidas de forma imprecisa ou descontextualizada pelas IAs.

O Comprova Explica o funcionamento dessas IAs e analisa um caso em que o Grok, chatbot de inteligência artificial do X, responde a uma pergunta de um usuário sobre supostos efeitos colaterais de vacinas.

As ferramentas de IA sempre trazem respostas corretas?

Não. Ferramentas de IA como o Grok, ChatGPT, Gemini e outras são treinadas com grandes volumes de informação, mas não têm senso crítico ou compromissos com valores éticos.

As IAs também podem fornecer informações incorretas ou desatualizadas e cometer erros que refletem preconceitos presentes nos dados de treinamento ou gerados por uma má interpretação da pergunta que deveriam responder.

De acordo com o monitor de desinformação em IA da NewsGuard, durante o mês de março de 2025, os 11 principais chatbots analisados repetiram afirmações falsas em 30,9% das respostas. Entre os observados estão o ChatGPT-4 (OpenAI), o Grok (xAI), o Claude (Anthropic) e o Gemini (Google).

Além disso, quando se considera também as respostas evasivas ou que não oferecem informação útil, a taxa total de falha chega a 41,51%.

Um estudo recente do Tow Center for Digital Journalism analisou oito buscadores com inteligência artificial e apontou falhas graves no desempenho dessas ferramentas.

O Grok forneceu respostas incorretas em 94% das consultas analisadas.

O estudo mostra que os chatbots, de modo geral, têm dificuldade em reconhecer quando não sabem a resposta e, em vez de admitirem isso, oferecem respostas erradas ou especulativas.

O Grok também apresentou um alto índice de fabricação de links: mais da metade de suas respostas incluíam URLs falsas ou quebradas, além de frequentemente citar artigos errados ou vincular incorretamente as fontes, mesmo quando localizaram o material correto.

Especificamente, 154 das 200 citações testadas para o Grok 3 levaram a páginas de erro.

Casos em que a IA pode gerar desinformação

Alguns exemplos recentes registrados nos dias de conflito entre Índia e Paquistão, no início de maio, ilustram situações em que as ferramentas de IA podem acabar produzindo desinformação em vez de esclarecer informações.

Uma reportagem do portal UOL mostrou que o Grok afirmou, de forma errada, que um vídeo antigo de um aeroporto do Sudão seria um ataque de mísseis contra uma base aérea no Paquistão.

Imagens de um prédio incendiado no Nepal também foram identificadas de forma incorreta pela IA como sendo “provavelmente” a resposta militar do Paquistão.

O coordenador científico do Centro de Excelência em Inteligência Artificial (IA) da Universidade Federal de Goiás (UFG), Anderson Soares, explica que a IA foi treinada para prever palavras que façam sentido dentro do contexto da linguagem, e não necessariamente para fornecer informações corretas ou respostas precisas.

Entender esse princípio básico ajuda a reduzir dúvidas sobre possíveis “alucinações” e a confiabilidade das respostas.

De acordo com o especialista, essas ferramentas apenas geram respostas com base em conteúdos disponíveis na internet.

Algumas soluções já adotam uma postura mais cautelosa, deixando claras suas limitações e indicando as fontes das informações utilizadas.

“Sabe aquele amigo que, quando não sabe, mente? É como se a gente colocasse um amiguinho do lado e dissesse o seguinte: ‘olha, a única regra do jogo é que você tem que responder’. “‘Ah, mas e quando eu não sei?’ Você fala: monta o conjunto de palavras a ponto de parecer que faz sentido’. Essa é a regra”, diz o especialista.

Ele compara a situação com os buscadores que surgiram no início da internet, que exigiam educação dos usuários para filtrar e usar os resultados das pesquisas.

“A gente está vivendo isso com essa era das IAs, em que vamos ter que duvidar do que vemos, do que escutamos e do que lemos com mais intensidade”.

Projeto Comprova
Ferramentas de Inteligência Artificial podem dar respostas desatualizadas, simplificadas ou informações incorretas - Projeto Comprova

O caso do CDC nos Estados Unidos

Outro exemplo recente mostra uma situação em que a IA pode oferecer informações imprecisas ou incompletas.

Nos comentários a uma postagem que associa falsamente as vacinas a doenças como miocardite e AVCs, um usuário perguntou ao Grok se existe uma relação direta entre esses dois fatos.

A resposta do chatbot apontou uma rara associação entre vacinas de mRNA para covid-19 e miocardite e fez uma relação de vacinas de vetor adenoviral com trombose, mas salientou que em ambos os casos os riscos são menores do que os causados pela infecção pelo vírus.

O usuário perguntou se, afinal, era melhor tomar ou não as quatro doses de vacinas contra a covid.

O Grok respondeu que o Centro de Controle e Prevenção de Doenças dos Estados Unidos (CDC, na sigla em inglês) deixou de recomendar a vacinação de rotina contra covid-19 para crianças saudáveis e mulheres grávidas.

De fato, o órgão americano alterou a orientação sobre a aplicação de vacinas contra a covid-19 para esse público no final de maio, mas não deixou de recomendar a imunização.

A nova orientação não diz mais que esses grupos “devem” tomar a vacina, mas que eles “podem” receber o imunizante caso haja interesse das famílias ou recomendação médica.

A emissora norte-americana PBS publicou em 30 de maio de 2025 uma reportagem explicando sobre as nuances na mudança de orientação do CDC.

A mudança nas recomendações ocorreu após o secretário de Saúde dos Estados Unidos, Robert F. Kennedy Jr., afirmar que as vacinas contra a covid-19 seriam removidas do calendário de vacinação do CDC. A resposta do Grok é imprecisa quanto à mudança na orientação do órgão de saúde americano.

Fontes consultadas

O site do CDC e reportagens da PBS, do UOL e do The Washington Post. Também foram consideradas análises sobre o desempenho de ferramentas de inteligência artificial, como o monitor da NewsGuard, e um estudo do Tow Center for Digital Journalism. E foi entrevistado Anderson Soares, da UFG.

Por que o Comprova explicou este assunto?

O Comprova monitora conteúdos suspeitos publicados em redes sociais e aplicativos de mensagem sobre políticas públicas, saúde, mudanças climáticas e eleições.

Quando detecta nesse monitoramento um tema que está gerando muitas dúvidas e desinformação, o Comprova Explica. Você também pode sugerir verificações pelo WhatsApp +55 11 97045-4984.

Para se aprofundar mais

A seção Comprova Explica já publicou um guia básico para entender a inteligência artificial, mostrou como funcionam os algoritmos e ensinou como identificar boatos nas redes.

A checagem foi publicada em 10 de junho de 2025 pelo Comprova — coalizão formada por 42 veículos de comunicação que verifica conteúdos virais.

A investigação foi conduzida pelo Jornal do Commercio e NSC Comunicação, e o conteúdo também passou por verificação de Folha de S. Paulo, Correio Braziliense e Correio de Carajás.

Saiba como acessar nossos canais do WhatsApp


#im #ll #ss #jornaldocommercio" />

Compartilhe

Tags