Combatendo a desinformação impulsionada por IA por meio da colaboração
  • 02.05
  • 2025
  • 16:26
  • Abraji

Liberdade de expressão

Acesso à Informação

Combatendo a desinformação impulsionada por IA por meio da colaboração

Neste Dia Mundial da Liberdade de Imprensa, 3 de maio, a IFEX — uma rede global que reúne mais de 100 organizações que defendem a liberdade de expressão e de imprensa — publicou uma matéria sobre como a inteligência artificial está redesenhando as ameaças de desinformação no Brasil e como o jornalismo colaborativo pode ser a linha de defesa mais forte. A organização entrevistou Sérgio Lüdtke, coordenador do programa de treinamento da Abraji e diretor do Comprova.

A matéria faz parte de uma campanha internacional que destaca como a sociedade civil está moldando um futuro onde a liberdade de imprensa e a IA podem coexistir. Além do Comprova, participaram outras organizações-membro da IFEX: MFWA (Gana), Metamorphosis (Macedônia do Norte), 7amleh (Palestina) e SFLC.in (Índia).

A campanha completa está disponível no site da IFEX. A seguir, confira a reportagem sobre o Comprova:

A desinformação tornou-se uma arma central no arsenal autoritário atual — usada não apenas para enganar, mas para desacreditar e desestabilizar. Jornalistas e veículos de comunicação voltados ao interesse público são alvos frequentes, enquanto atores políticos orquestram narrativas que corroem a confiança pública nos fatos e alimentam a polarização. Essas estratégias são amplificadas exponencialmente pelas plataformas das Big Techs, transformando conteúdo tóxico em ruído viral.

No Brasil, uma das respostas mais ambiciosas a esse desafio é o Projeto Comprova — uma iniciativa de jornalismo colaborativo que reúne mais de 40 veículos de mídia e organizações da sociedade civil para identificar, verificar e desmentir informações falsas sobre temas que vão desde eleições até saúde pública e clima. Hospedado pela Abraji, membro da IFEX, o Comprova desempenha um papel fundamental na resistência à captura do debate público no Brasil e na promoção do acesso à informação precisa e confiável.

Conversamos com Sérgio Lüdtke, coordenador do programa de treinamento da Abraji e diretor do Comprova, para entender melhor como a inteligência artificial está transformando a ameaça da desinformação — e como o jornalismo colaborativo pode ser nossa defesa mais eficaz.

Sim, a IA está mudando o jogo — mas não exatamente como se esperava

Quando o Brasil se preparava para as eleições municipais de 2024, jornalistas, pesquisadores e organizações civis temiam uma avalanche de desinformação gerada por IA. O risco dos deepfakes era grande — vídeos realistas de candidatos dizendo coisas que nunca disseram, imagens que nunca existiram. No entanto, a realidade pode ser ainda mais insidiosa, explica Lüdtke. Isso ocorre principalmente porque, em vez de inundar o ecossistema com mídia sintética, os agentes mal-intencionados tendem a reciclar histórias antigas — sobre fraudes eleitorais, inimigos políticos, boatos carregados de emoção —, o que sugere que a IA pode estar sendo usada não tanto para criar conteúdo, mas para potencializar sua distribuição.

Ainda assim, deepfakes gerados por IA apareceram — e, quando isso aconteceu, foram usados principalmente contra candidatas mulheres, muitas vezes na forma de imagens sexualizadas ou “deepnudes”. Esses ataques evidenciam como as campanhas de desinformação se cruzam com a violência de gênero, explorando preconceitos sociais e alimentando a exclusão política.

Jornalismo reconfigurado: integrando ferramentas de IA, táticas e protocolos de proteção

À medida que a desinformação evolui, o jornalismo que a combate também evolui. A equipe do Comprova não apenas verifica falsidades, como redesenha a própria redação, integrando ferramentas de IA como assistentes — não como autoridades.

Em vez de depender de um único modelo, a coalizão utiliza uma variedade de tecnologias acessíveis — ChatGPT, Gemini, Perplexity, Copilot — para ajudar a sintetizar, classificar e monitorar informações. Essas ferramentas não substituem a verificação humana, mas atuam como copilotos no processo — copilotos poderosos. Os jornalistas também desenvolveram uma biblioteca de prompts compartilhada, refinando suas interações com a IA para acelerar os fluxos de trabalho sem abrir mão do rigor.

“Estamos usando a IA para apoiar tanto o monitoramento quanto a verificação”, diz Lüdtke. “Mas sempre com supervisão humana. O objetivo não é substituir o julgamento — é acelerar a precisão.”

A desinformação visual é outro desafio. Quando imagens virais vêm acompanhadas de alegações falsas, a equipe combina o Google Earth e o Maps com IA para analisar dados de localização e pistas contextuais. E além de desmentir, passaram a usar IA para criar conteúdo preventivo — infográficos e mensagens de resposta rápida — para interromper narrativas nocivas antes que se espalhem.

A IA também está mudando a forma como os títulos são escritos. Checagens tradicionais muitas vezes começam apresentando a mentira, para só então corrigi-la. Mas pesquisas recentes mostram que isso pode ter efeito reverso. “O cérebro precisa ver a verdade primeiro”, diz Lüdtke. Agora, os artigos do Comprova são estruturados para ancorar o leitor nos fatos antes de introduzir a alegação falsa.

Mas a IA é apenas uma parte da equação. No volátil ecossistema informacional do Brasil, o racismo e o sexismo estão presentes tanto na forma como a desinformação circula quanto em quem ela atinge. O Comprova desenvolveu protocolos internos de proteção para seus jornalistas — especialmente jornalistas negras —, que enfrentam riscos maiores de assédio ao entrar em contato com disseminadores de desinformação. Essa abordagem holística — tecnológica, editorial e humana — mostra como o Comprova está reinventando a prática jornalística para se adaptar à era da IA.

Colaboração como estratégia: propósito antes do crédito

No centro do modelo do Comprova está uma ideia radical: o jornalismo é mais forte quando é compartilhado. Desde seu lançamento em 2018, a iniciativa reuniu mais de 40 veículos de comunicação e grupos da sociedade civil em todo o Brasil, unidos não pela competição, mas pelo compromisso comum com o interesse público.

“Ninguém assina as matérias. Ninguém recebe crédito individual”, diz Lüdtke. “Isso muda tudo. Não competimos por visibilidade — colaboramos por impacto.” Cada checagem publicada pelo Comprova é resultado de um processo editorial coletivo, envolvendo de 10 a 12 jornalistas de diferentes organizações. As decisões são tomadas por consenso, e o objetivo não é dar o furo — é acertar, juntos.

Essa estrutura colaborativa não apenas melhora a precisão, como também fortalece a resiliência. Num contexto em que a liberdade de imprensa está sob pressão e a desinformação se espalha rapidamente por ferramentas alimentadas por IA, o trabalho compartilhado significa proteção compartilhada. Permite a distribuição de risco, carga emocional e recursos. “Há uma mudança cultural profunda quando você começa a confiar o seu processo a outras pessoas”, reflete Lüdtke. “E, depois que experimentam isso, ninguém quer voltar atrás.”

Assinatura Abraji