Deepfakes e bibliotecas escolares: desafios e responsabilidades na era da IA

Durante décadas, a imagem e a voz foram entendidas como provas quase irrefutáveis da realidade, porém a evolução acelerada da Inteligência Artificial (IA) veio alterar essa perceção. Hoje, é possível criar vídeos, áudios e imagens sintéticas com um grau de realismo tal que a distinção entre o que é autêntico e o que é manipulado deixou de ser evidente.
No contexto informacional atual, a máxima “ver para crer” revela-se insuficiente, dada a disseminação de conteúdos manipulados, designados deepfakes, que obriga a repensar os critérios de validação da informação e a reforçar competências críticas. Mais do que um desafio tecnológico, trata-se de uma questão educativa e cívica, que interpela diretamente a escola e as bibliotecas escolares, enquanto espaços de confiança e formação para a cidadania informada.
1. O que são deepfakes?
O termo deepfake resulta da combinação de deep learning (aprendizagem profunda) e fake (falso). Designa conteúdos audiovisuais - vídeo, imagem ou áudio- gerados ou manipulados por sistemas de Inteligência Artificial (IA), com o objetivo de simular, com elevado grau de realismo, a identidade ou a voz de uma pessoa.
Do ponto de vista técnico, recorrem a modelos de aprendizagem automática treinados com grandes volumes de dados, sendo frequente o uso de redes generativas adversariais (Generative Adversarial Networks – GANs). O resultado pode atingir níveis de verosimilhança difíceis de detetar a olho nu.
As principais modalidades incluem:
- Troca de rosto (face swap) - substituição do rosto de uma pessoa pelo de outra num vídeo pré-existente.
- Clonagem de voz (voice cloning) - geração artificial de uma voz semelhante à de uma pessoa real, a partir de breves amostras de áudio.
- Sincronização labial (lip-sync) - alteração dos movimentos da boca para simular que alguém disse algo que, na realidade, nunca proferiu.
2. Usos legítimos e riscos documentados
A tecnologia é ambivalente e, entre as utilizações legítimas, encontram-se a recriação cinematográfica, a dobragem automática multilingue ou projetos de preservação digital, desde que exista consentimento e transparência.
Contudo, os riscos são consistentes e estão documentados:
- Fraude financeira e engenharia social, incluindo ataques de business email compromise com recurso a IA (Centro Nacional de Cibersegurança [CNCS], 2025; ThreatMark, 2025).
- Desinformação política, com potencial interferência em processos eleitorais (Coura et al., 2026).
- Pornografia não consensual, com danos civis e psicológicos graves.
- Erosão da confiança pública, associada ao que alguns autores designam como “crise da verdade” (IA no Trabalho, 2026).
Importa distinguir factos de perceções: nem todo o conteúdo manipulado é um deepfake, mas existem dados que apontam para o aumento do seu uso em situações de fraude e de desinformação.
3. Como identificar deepfakes?
Ainda que os sistemas de IA tendam a ser cada vez mais sofisticados, uma análise atenta de alguns aspetos permite detetar a manipulação presente em muitos conteúdos.
3.1. Análise visual
a) Frequência do piscar dos olhos
Alguns modelos apresentam dificuldades em reproduzir padrões naturais do piscar dos olhos: frequência demasiado reduzida ou excessivamente regular pode justificar suspeita.
b) Contornos e sombras
Borrões subtis, sombras incoerentes ou transições imprecisas são indícios frequentes, pelo que se recomenda a observação atenta da linha do cabelo, do contorno do rosto, da junção entre face e fundo, de pormenores anatómicos (mãos, orelhas…).
c) Interior da boca
Durante a fala, a representação dos dentes e da língua pode apresentar distorções, ausência de profundidade ou movimentos pouco naturais, com atraso entre som e movimento da boca.
d) Iluminação e coerência ambiental
Inconsistências na iluminação são um dos sinais mais comuns. Ocasionalmente, as sombras não correspondem à direção da fonte de luz presente na cena.
e) Textura da pele
Pele excessivamente lisa, com brilho artificial ou manchas que “tremem” ligeiramente entre fotogramas podem indicar manipulação.
3.2. Análise de áudio
a) Respiração e pausas pouco naturais
Os sistemas de voz frequentemente:
- não incluem pausas respiratórias naturais ou plausíveis;
- mantêm cadência demasiado uniforme;
- apresentam entoação mecânica.
b) Sincronização labial
Pequenos atrasos entre o som e o movimento da boca são relativamente fáceis de detetar e constituem um dos sinais mais acessíveis ao observador atento.
c) Ruído de fundo
O áudio é, muitas vezes, excessivamente “limpo” ou apresenta cortes abruptos no ruído ambiente quando a pessoa deixa de falar.
3.3. Verificação técnica e ferramentas especializadas
Existem plataformas dedicadas à deteção de manipulação audiovisual, utilizadas sobretudo por jornalistas, investigadores e peritos forenses digitais. Algumas analisam:
- padrões de pixels impercetíveis ao olho humano;
- inconsistências biométricas;
- artefactos introduzidos por modelos generativos;
- metadados do ficheiro (informação técnica oculta que pode revelar edição).
Em síntese, a deteção de deepfakes combina a observação de sinais visuais e sonoros com uma interpretação crítica do contexto em que o conteúdo aparece e, quando possível, pode socorrer-se de ferramentas de verificação técnica. Este conjunto de estratégias e recursos possibilita detetar conteúdos manipulados e reforça a capacidade de avaliação crítica dos utilizadores perante conteúdos potencialmente enganosos (IA no Trabalho, 2026).
4. Como se proteger?
A resposta abrange três domínios:
- Literacia digital e mediática
Desenvolver competências críticas para confirmar a fonte original, verificar informação em órgãos credíveis e evitar partilhas impulsivas. - Ferramentas tecnológicas
Recorrer a sistemas automáticos de deteção que analisam padrões de pixéis, inconsistências biométricas ou metadados (UncovAI, 2026), embora sem garantia absoluta. - Regulamentação
O Regulamento da Inteligência Artificial da União Europeia impõe obrigações de transparência na identificação de conteúdos gerados por IA suscetíveis de induzir em erro (Comissão Europeia, 2025).
5. O papel das bibliotecas
Os documentos orientadores da IFLA abordam os impactos associados à criação em grande escala de conteúdos por IA, à desinformação e à fragilização dos ecossistemas informacionais. Nessa linha, recomenda que as bibliotecas desenvolvam respostas estratégicas institucionais em quatro áreas (IFLA, 2023; IFLA, 2025):
- Baluartes de informação de confiança
Num contexto em que sistemas de IAGen podem produzir conteúdos imprecisos ou “alucinados”, a confiança pública nas bibliotecas constitui um ativo estratégico. - Promoção da literacia em IA e algorítmica
Impõe-se a necessidade de capacitar utilizadores para compreender o funcionamento dos sistemas de IA, os seus limites, os riscos de viés e a importância da avaliação crítica. - Consciencialização sobre abusos e manipulação
A IA pode ser instrumentalizada para desinformação, censura ou manipulação. As bibliotecas devem alertar para estes riscos e promover a análise e o pensamento crítico. - Orientação para uso seguro e ético
Para além da dimensão formativa, recomenda-se a definição de políticas institucionais claras para uso responsável da IA, incluindo transparência e proteção de dados.
Em suma, os deepfakes não constituem somente uma inovação tecnológica, representam, também, um desafio tecnológico, jurídico, ético e educativo que interpela diretamente a escola e a formação para a cidadania.
Num ecossistema informacional marcado pela produção automatizada de conteúdos sintéticos e pela erosão da confiança pública, as bibliotecas escolares afirmam-se como infraestruturas críticas de confiança. São espaços onde se ensina a verificar antes de partilhar, a questionar antes de aceitar e a distinguir evidência de manipulação.
Ao promoverem literacia algorítmica, mediática e informacional, as bibliotecas escolares não apenas respondem ao fenómeno dos deepfakes como contribuem ativamente para a construção de uma cultura de integridade informacional, condição indispensável ao exercício de uma cidadania consciente e responsável.
Referências
- CNCS. (2025). Relatório de cibersegurança em Portugal – tema riscos & conflitos (6.ª ed.). Centro Nacional de Cibersegurança. https://www.cncs.gov.pt/docs/rel-riscosconflitos2025-obcibercncs.pdf
- Comissão Europeia. (2025, 10 de novembro). Comissão Europeia lança processo para código de boas práticas sobre conteúdos criados por IA. Digital.gov.pt. https://digital.gov.pt/noticias/comissao-europeia-lanca-processo-para-codigo-de-boas-praticas-sobre-conteudos-criados-por-ia
- Coura, A. B., Borges de Liz, K., & Gomes, K. E. (2026, 27 de fevereiro). Deepfake e inteligência artificial generativa – desafios regulatórios para as eleições de 2026. Migalhas. https://www.migalhas.com.br/depeso/450480/deepfake-e-ia-generativa--desafios-regulatorios-para-as-eleicoes-2026
- IA no Trabalho. (2026, 28 de janeiro). A crise da verdade: Como identificar deepfakes e proteger sua imagem em 2026. https://ianotrabalho.com/como-identificar-deepfakes-2026/
- International Federation of Library Associations and Institutions. (2023). Developing a library strategic response to AI. IFLA. https://www.ifla.org/news/developing-a-library-strategic-response-to-ai/
- International Federation of Library Associations and Institutions. (2025). AI entry point to libraries and AI [PDF]. IFLA. https://repository.ifla.org/handle/20.500.14598/4034
- ThreatMark. (2025, 30 de maio). AI vs. Fraud: The future of fraud defense [White paper]. https://www.threatmark.com/wp-content/uploads/2025/05/ThreatMark-AI-vs-Fraud-The-Future-of-Fraud-Defense-Whitepaper.pdf
- UncovAI. (2026). 10 best deepfake detection tools of 2026: Real-time guide. https://uncovai.com/best-deepfake-detection-tools-2026/
- 📸Imagem por vectorjuice no Freepik