Integridade da informação em assistentes de IA: um alerta global

Em outubro de 2025, a BBC e a União Europeia de Radiodifusão (EBU) divulgaram o relatório internacional News Integrity in AI Assistants: An International PSM Study [1], um dos mais abrangentes estudos sobre a forma como os principais assistentes de inteligência artificial - ChatGPT, Copilot, Gemini e Perplexity - respondem a perguntas sobre notícias e atualidade.
O estudo envolveu 22 entidades de serviço público de media, de 18 países e 14 línguas, e analisou 2.709 respostas geradas nas versões gratuitas dos assistentes. Cada resposta foi avaliada por jornalistas, segundo cinco critérios: exatidão, fontes, distinção entre factos e opiniões, editorialização e contexto.
O relatório de 2025 confirma o que a BBC já identificara na investigação de 2024: os assistentes de IA ainda não são/ continuam a não ser um meio fiável para obter notícias, mesmo quando parecem seguros e convincentes.
Erros persistentes
Comparando com o estudo anterior da BBC (2024), os resultados revelam melhorias, mas confirmam que os erros continuam a ser generalizados e sistémicos:
🟥45% das respostas apresentaram pelo menos um erro grave;
🟥81% tinham algum tipo de problema;
🟥31% mostravam falhas graves de sourcing, com ausência, má utilização ou falsificação de fontes;
🟥20% continham erros factuais;
🟥14% não forneciam contexto suficiente para uma leitura correta da informação.
Entre os quatro assistentes avaliados, o Gemini registou o pior desempenho, com 72% de respostas com erros de fonte, o dobro do ChatGPT, Copilot e Perplexity.
Os exemplos recolhidos pelos jornalistas das organizações participantes ilustram a diversidade e a gravidade dos erros encontrados.
Entre os mais recorrentes, destacam-se os casos de informação desatualizada (como respostas em maio de 2025 que ainda identificavam Francisco como Papa, apesar da eleição de Leão XIV semanas antes) ou de erros factuais que distorcem acontecimentos e decisões políticas (como a afirmação de que Donald Trump teria aplicado tarifas a bens contendo fentanil, quando, na realidade, as tarifas não recaíam sobre produtos com essa substância, mas eram uma resposta à alegada falta de ação do Canadá e México no combate ao tráfico).
Também foram detetadas citações inventadas ou alteradas, em que os assistentes atribuem frases a personalidades ou instituições sem qualquer base verificável. Um dos exemplos citados no relatório mostra uma resposta em que o então primeiro-ministro canadiano Justin Trudeau é falsamente citado como tendo dito “uma guerra comercial estúpida”, expressão que nunca proferiu.
Outro padrão preocupante é o uso indevido de conteúdos satíricos ou promocionais, apresentados como se fossem factuais. Um dos casos analisados envolveu a utilização, pelo assistente Gemini, de uma rubrica humorística da Radio France como fonte para uma notícia séria sobre Elon Musk, sem indicar o caráter humorístico do conteúdo.
A estes problemas soma-se um tom de confiança excessiva, típico das respostas geradas por IA. Mesmo quando a informação é incorreta ou incompleta, os textos são apresentados com a segurança e a estrutura de uma notícia acabada, o que reforça uma ilusão de autoridade e dificulta a perceção do erro por parte do leitor.
Em muitos casos, o assistente não admite dúvida nem reconhece a incerteza dos factos, optando antes por preencher lacunas com suposições plausíveis, um comportamento que os investigadores descrevem como “sobre-confiança algorítmica”.
Risco de desinformação e perda de confiança
O relatório sublinha uma contradição preocupante e com fortes implicações sociais: embora muitos utilizadores acreditem na fiabilidade das respostas dadas por IA, estas continuam longe de garantir informação rigorosa.
De acordo com o estudo, mais de um terço dos adultos britânicos confia plenamente na precisão das respostas fornecidas por assistentes de IA, subindo essa percentagem para quase metade entre os menores de 35 anos. Este dado revela um fenómeno de confiança acrítica num tipo de tecnologia que ainda comete erros graves, não reconhece as suas limitações e tende a apresentar as respostas com um tom de certeza absoluta.
As consequências dessa confiança mal atribuída vão muito além do erro informativo:
🟥42% dos inquiridos afirmaram que passariam a confiar menos no meio de comunicação original se encontrassem erros num resumo gerado por IA. Ou seja, a responsabilidade pelo erro é partilhada, mesmo quando a falha é do assistente, o que agrava o risco reputacional para os órgãos de comunicação social.
🟥As respostas automáticas baseadas em IA estão também a desviar leitores dos meios de comunicação tradicionais, reduzindo consumo de fontes jornalísticas de referência. A Financial Times registou uma quebra de 25% a 30% no número de leitores que acedem às suas notícias através de motores de pesquisa, após a introdução das respostas “answer-first” geradas por IA.
Esta mudança de comportamento dos utilizadores traduz-se numa transformação profunda na forma como a sociedade acede à informação: os assistentes de IA privilegiam respostas diretas e instantâneas, dispensando a leitura integral das notícias, a verificação das fontes e a análise de diferentes perspetivas. Assim, o leitor deixa de ser um agente ativo na consolidação da sua compreensão do mundo para se tornar um mero recetor de respostas prontas, frequentemente simplificadas ou enviesadas.
O relatório alerta que, se nada for feito, este modelo pode enfraquecer a diversidade informativa e reduzir o contacto com fontes credíveis, criando um ecossistema de informação menos transparente, mais superficial e mais vulnerável à desinformação.
Perante esta realidade, os autores defendem que as empresas tecnológicas devem ser responsabilizadas pelo impacto informativo e social dos seus produtos, e que a literacia mediática e digital deve ser reforçada como linha de defesa essencial da cidadania informada.
Mudanças urgentes
O relatório propõe quatro linhas de ação:
1. Responsabilização das empresas de IA, com correção dos erros , sobretudo os de precisão e fontes.
2. Controlo editorial dos editores e produtores de conteúdos sobre a utilização das suas publicações por assistentes de IA.
3. Criação de normas e mecanismos de regulação que assegurem qualidade, rastreabilidade e visibilidade dos conteúdos de confiança.
4. Reforço da literacia em IA, ajudando os cidadãos a compreenderem limites, riscos e potencial destas tecnologias.
A EBU lançou, em simultâneo, o Toolkit “News Integrity in AI Assistants”, que identifica boas práticas e erros típicos dos assistentes no tratamento de notícias, e que visa apoiar tanto os programadores de IA como os profissionais dos media.
Educação e literacia: o papel das bibliotecas escolares
As conclusões deste estudo ecoam de forma direta no campo educativo. Num tempo em que muitos jovens e adultos obtêm respostas rápidas através de assistentes de IA, é essencial reforçar o contacto direto e regular com fontes jornalísticas fidedignas, promovendo o hábito de ler notícias completas, identificar as suas origens e compreender como são construídas.
O acesso direto ao jornalismo profissional (nacional e internacional, impresso e digital) é uma forma de combater a superficialidade informativa que caracteriza as respostas automáticas. Ler um artigo, seguir o desenvolvimento de uma história, comparar diferentes meios e pontos de vista são práticas que exigem tempo, atenção e pensamento crítico, precisamente as competências que as bibliotecas escolares ajudam a desenvolver.
Formar leitores críticos implica, portanto, mais do que ensinar a verificar informação: exige fomentar o gosto por explorar fontes originais, compreender a linguagem jornalística e reconhecer o valor do rigor e da transparência.
É nesse sentido que se inscreve o trabalho desenvolvido pelas bibliotecas escolares no âmbito dos jornais escolares, designadamente em parceria com o projeto PÚBLICO na Escola, que tem contribuído para aproximar alunos e professores do jornalismo de qualidade, estimulando o pensamento crítico, a redação de conteúdos jornalísticos diversos e a leitura da atualidade.
O projeto LIDERA constitui, neste contexto, uma iniciativa estruturante da RBE. Promove o desenvolvimento de competências de leitura crítica e de análise de notícias, explorando diferentes formatos e géneros jornalísticos. Através de sessões de capacitação para mediadores, o LIDERA incentiva o debate, a verificação de fontes e o questionamento das mensagens mediáticas, incluindo as produzidas ou mediadas por IA.
Também várias das atividades disponíveis no portal RBE (Aprender com a Biblioteca Escolar: Saber usar os media) apoiam escolas e docentes na implementação de projetos de literacia mediática, orientando o trabalho com os alunos na análise de notícias, no confronto de perspetivas e na identificação de desinformação.
As bibliotecas escolares, enquanto espaços de aprendizagem e de confiança, devem assumir este papel crucial: apoiar os alunos na diferenciação entre respostas geradas automaticamente e análises construídas de forma crítica, favorecendo um conhecimento mais sólido e sustentado.
Ao promoverem o contacto com o jornalismo de qualidade e a leitura informada da atualidade, as bibliotecas contribuem para formar cidadãos mais exigentes, informados e conscientes.
Num mundo mediado por algoritmos, ler bem e ler nas fontes certas continua a ser a melhor forma de pensar melhor.
Referências
[1] BBC & EBU (2025). News Integrity in AI Assistants: An international PSM study. newsintegrity.org/home