Como detetar conteúdo criado por IA

Imagens e vídeos gerados ou manipulados por inteligência artificial (IA), conhecidos como deepfakes, representam uma ameaça crescente à confiança pública e à verdade. Conteúdos falsos, mas visualmente muito realistas, têm causado pânico, desinformação e manipulação política em várias situações recentes.

Por exemplo, em maio de 2023, uma imagem deepfake de uma explosão no Pentágono espalhou-se rapidamente nas redes sociais, provocando medo e uma queda temporária no mercado acionista dos EUA. No contexto da guerra na Ucrânia, em 2022, um vídeo falso do presidente Zelenskyy pedindo a rendição das tropas foi usado para tentar minar a moral do país.

Estes casos ilustram o impacto significativo que a IA pode ter na criação e disseminação de desinformação visual, tornando essencial que todos aprendam a questionar e verificar a autenticidade das imagens que encontram.

A realidade científica: Somos piores do que pensávamos

O artigo da Inc., escrito por Jessica Stillman em maio de 2025, baseia-se num estudo conduzido por Matthew Groh, professor na Kellogg School of Management da Northwestern University, que revela uma verdade desconfortável sobre as nossas capacidades de perceção visual. Mais de 50.000 participantes foram convidados a identificar se imagens eram reais ou geradas por IA. Os resultados foram claros e preocupantes:

  • Apenas 76% conseguiram identificar corretamente imagens de IA;
  • E só 74% reconheceram imagens reais como autênticas.

Mesmo conscientes da possibilidade de falsificação, a maioria das pessoas acertou pouco mais do que por mero palpite. Como Groh sublinha no artigo da Inc.:
“Os resultados estão algures entre a adivinhação e a perfeição. As pessoas acreditam que são boas nisto, mas a verdade é que não são.”

Este estudo expõe uma limitação profunda na nossa confiança visual: os nossos olhos enganam-nos com mais frequência do que pensamos, especialmente diante de algo subtilmente artificial.

Porque é que o nosso cérebro fica para trás?

A psicóloga cognitiva Arryn Robbins, citada no artigo da Inc., explica que o problema reside na própria evolução do cérebro humano. O nosso sistema visual não foi desenhado para identificar minúcias digitais:

“Detetar erros em imagens de IA requer reparar em detalhes muito subtis, mas o sistema visual humano evoluiu para detetar rapidamente ameaças em movimento — não para analisar com precisão as proporções de uma mão ou o reflexo num espelho.”

Somos muito bons a captar o “todo” de uma imagem, mas péssimos a notar pequenas incoerências que podem trair a sua falsidade. A nossa perceção favorece a velocidade em detrimento da precisão.

Técnicas comprovadas para melhorar a detecção

Apesar destas limitações naturais, o artigo da Inc., aponta caminhos concretos para melhorar a nossa capacidade de identificar imagens falsas:

  1. Abrande e observe com atenção
    A técnica mais poderosa é também a mais simples: dedicar pelo menos 10 segundos à análise de cada imagem. No estudo, esta pausa aumentou a taxa de acerto de 75% para 80%. Dar tempo ao cérebro para processar detalhes faz toda a diferença.
  2. Saiba quais são os erros mais comuns das imagens geradas por IA
    Saber o que procurar já melhora significativamente a capacidade de análise. Os sinais mais frequentes são:
    • Erros anatómicos: mãos com dedos a mais, articulações mal posicionadas, pescoços anormalmente longos, rostos com assimetrias subtis, olhos desalinhados.
    • Texturas artificiais: ausência de poros, falta de rugas ou imperfeições, aparência plastificada ou renderizada.
    • Incoerências físicas: sombras contraditórias, reflexos incoerentes com o ambiente, imagens impossíveis em espelhos ou janelas.
    • Incompatibilidades culturais e históricas: diversidade étnica irrealista em retratos antigos, elementos que destoam do contexto geográfico ou temporal.

A prática constante da observação crítica é fundamental para fortalecer a literacia visual no mundo digital.

Regulamentação global

A nível internacional, as autoridades começam a reagir para conter os riscos dos deepfakes. A União Europeia, com o AI Act, define deepfakes como conteúdos gerados ou manipulados por IA que aparentam ser autênticos, mas que são falsos. O regulamento obriga quem cria deepfakes a identificar claramente estes conteúdos, garantindo que são marcados de forma legível por máquinas e detetáveis como falsificações.

Esta legislação prevê ainda exceções limitadas para conteúdos artísticos, satíricos ou ficcionais, que devem ser devidamente sinalizados.

Num mundo onde a inteligência artificial pode criar imagens e vídeos indistinguíveis da realidade, a nossa perceção visual — outrora uma ferramenta de confiança — revela-se surpreendentemente falível. O estudo analisado pela Inc. mostra que mesmo quando tentamos identificar conteúdos falsos, falhamos com frequência, sobretudo porque o nosso cérebro não está preparado para detetar os detalhes subtis que denunciam uma manipulação digital. Perante esta nova realidade, torna-se essencial promover uma literacia visual crítica, exigir transparência no uso da IA e acompanhar as evoluções legislativas — não só para proteger indivíduos e instituições, mas também para preservar a confiança pública na era da informação artificial.

Leave a Comment

O seu endereço de email não será publicado. Campos obrigatórios marcados com *

Review Your Cart
0
Add Coupon Code
Subtotal

 
Scroll to Top