Siga nossas redes sociais
Logo     
Siga nossos canais
   
Vídeo que acusa EUA de bombardear Venezuela é falso; imagens reais são de Miami
Conteúdo viral sobre bombardeiro B-2 em Aruba foi desmentido por agências de checagem e pelo comando militar dos EUA. Caso ilustra a sofisticação e os riscos da desinformação em meio a tensões geopolíticas
Internet
Foto: https://encrypted-tbn0.gstatic.com/images?q=tbn:ANd9GcS_GL5-Jae5c-t1exug8gzARubcB0a4HILdxg&s
■   Bernardo Cahue, 06/12/2025

Um vídeo que alegava mostrar um bombardeiro B-2 Spirit dos Estados Unidos sobrevoando a praia de Aruba — ilha a apenas 25 km da Venezuela — e que circulou com alegações de um ataque iminente, é falso. A gravação é real, mas foi feita durante uma demonstração aérea em Miami Beach, nos EUA, e não no Caribe. O caso ganhou notoriedade após o governo venezuelano acusar os EUA de usar inteligência artificial para forjar vídeos de ataques, uma alegação que foi negada pelas autoridades americanas.

O material, que ultrapassou 315 mil visualizações em uma rede social, foi publicado no mesmo dia em que os EUA designaram o Cartel de los Soles, grupo que alegam ser chefiado por Nicolás Maduro, como uma organização terrorista internacional. Especialistas consultados para a verificação do fato apontam que a missão e a tecnologia do B-2 tornam improvável um voo visível e de baixa altitude sobre uma área sensível como a costa venezuelana.

O que São Deepfakes e Como se Tornaram Armas de Desinformação

A técnica conhecida como deepfake usa inteligência artificial para criar conteúdos sintéticos extremamente realistas, nos quais pessoas aparecem dizendo ou fazendo coisas que nunca fizeram. O termo surgiu em 2017 a partir de um usuário do Reddit e se refere ao uso de aprendizado profundo (deep learning) para criar falsificações (fakes).

Inicialmente associada a entretenimento e sátiras, a tecnologia foi apropriada para a produção em massa de desinformação. Na Venezuela, por exemplo, avatares deepfake com nomes como "Noah" e "Daren" foram usados em uma emissora estatal para simular supostas coberturas positivas de veículos de comunicação "gringos" sobre o país.

As ferramentas para criar deepfakes se tornaram mais acessíveis, mas os melhores resultados ainda dependem de:

  • Um grande volume de imagens, vídeos ou áudios reais da pessoa-alvo para "treinar" o algoritmo.
  • O uso de redes neurais complexas, como as Redes Adversárias Generativas (GANs), onde um sistema gera o conteúdo e outro tenta detectar a fraude, em um ciclo que refina o resultado final.
  • Técnicas de sincronização labial e clonagem de voz para aumentar o realismo.

Um Caso Recente: A Acusação Cruzada Entre Venezuela e EUA

O episódio do vídeo do B-2 não é um deepfake no sentido técnico (a imagem é real, mas seu contexto foi falsificado), porém, ele se misturou a uma nova frente de acusações sobre o uso de IA. O ministro das Comunicações da Venezuela, Freddy Ñáñez, afirmou que um vídeo de um ataque dos EUA a um suposto navio narcotraficante foi criado com IA, usando como "prova" uma consulta à ferramenta Gemini, do Google.

Agências de verificação e o próprio Google alertam que IA generativa não é uma ferramenta adequada para verificar fatos, pois pode dar informações imprecisas. Em resposta, o Secretário de Defesa dos EUA, Peter Hegseth, negou veementemente o uso de IA e defendeu a autenticidade da operação militar.

Como Identificar Conteúdo Manipulado e Combater a Desinformação

Diante da sofisticação das falsificações, especialistas recomendam desconfiar e checar antes de compartilhar. Sinais comuns de um deepfake incluem:

  • Anomalias visuais: iluminação ou coloração irregular da pele, bordas estranhas ao redor do rosto, piscar de olhos não natural ou sincronia imperfeita entre a boca e a voz.
  • Anomalias contextuais: o cenário, a roupa ou o comportamento da pessoa parecem fora do comum ou inconsistentes.
  • Fonte duvidosa: o conteúdo vem de um perfil desconhecido ou de uma conta que frequentemente publica notícias sensacionalistas.

No Brasil, onde quase 90% da população admite já ter acreditado em uma fake news, iniciativas públicas e privadas buscam ampliar a educação midiática. O Senado Federal, por exemplo, relançou o site Senado Verifica com foco em uma atuação mais proativa e educativa no combate à desinformação, especialmente diante das eleições de 2026. Ministérios também usam seus canais para desmentir informações falsas que ganham viralidade.

O Impacto e o Futuro da Desinformação Sintética

Os deepfakes representam uma ameaça significativa, com potencial para:

  1. Minar a confiança: criar um cenário de incerteza sobre o que é real, corroendo a credibilidade de instituições, mídia e figuras públicas.
  2. Interferir em processos democráticos: manipular a opinião pública e eleições com narrativas falsas.
  3. Causar danos pessoais e à segurança: desde assédio e pornografia de vingança até a manipulação de mercados financeiros.

A legislação ainda tenta acompanhar a tecnologia. Nos EUA, estados como Texas, Virgínia e Califórnia têm leis específicas que criminalizam deepfakes usados para interferir em eleições ou criar pornografia não consensual. O caminho para enfrentar o problema, no entanto, parece combinar vigilância crítica do público, ferramentas de detecção tecnológica e marco regulatório claro.

Com informações de: G1, CNN Brasil, Washington Post, Agência Brasil, Senado Federal, Gov.br MDHC, Malwarebytes, DataCamp ■