Siga nossas redes sociais | ![]() | Siga nossos canais |
Um vídeo que alegava mostrar um bombardeiro B-2 Spirit dos Estados Unidos sobrevoando a praia de Aruba — ilha a apenas 25 km da Venezuela — e que circulou com alegações de um ataque iminente, é falso. A gravação é real, mas foi feita durante uma demonstração aérea em Miami Beach, nos EUA, e não no Caribe. O caso ganhou notoriedade após o governo venezuelano acusar os EUA de usar inteligência artificial para forjar vídeos de ataques, uma alegação que foi negada pelas autoridades americanas.
O material, que ultrapassou 315 mil visualizações em uma rede social, foi publicado no mesmo dia em que os EUA designaram o Cartel de los Soles, grupo que alegam ser chefiado por Nicolás Maduro, como uma organização terrorista internacional. Especialistas consultados para a verificação do fato apontam que a missão e a tecnologia do B-2 tornam improvável um voo visível e de baixa altitude sobre uma área sensível como a costa venezuelana.
A técnica conhecida como deepfake usa inteligência artificial para criar conteúdos sintéticos extremamente realistas, nos quais pessoas aparecem dizendo ou fazendo coisas que nunca fizeram. O termo surgiu em 2017 a partir de um usuário do Reddit e se refere ao uso de aprendizado profundo (deep learning) para criar falsificações (fakes).
Inicialmente associada a entretenimento e sátiras, a tecnologia foi apropriada para a produção em massa de desinformação. Na Venezuela, por exemplo, avatares deepfake com nomes como "Noah" e "Daren" foram usados em uma emissora estatal para simular supostas coberturas positivas de veículos de comunicação "gringos" sobre o país.
As ferramentas para criar deepfakes se tornaram mais acessíveis, mas os melhores resultados ainda dependem de:
O episódio do vídeo do B-2 não é um deepfake no sentido técnico (a imagem é real, mas seu contexto foi falsificado), porém, ele se misturou a uma nova frente de acusações sobre o uso de IA. O ministro das Comunicações da Venezuela, Freddy Ñáñez, afirmou que um vídeo de um ataque dos EUA a um suposto navio narcotraficante foi criado com IA, usando como "prova" uma consulta à ferramenta Gemini, do Google.
Agências de verificação e o próprio Google alertam que IA generativa não é uma ferramenta adequada para verificar fatos, pois pode dar informações imprecisas. Em resposta, o Secretário de Defesa dos EUA, Peter Hegseth, negou veementemente o uso de IA e defendeu a autenticidade da operação militar.
Diante da sofisticação das falsificações, especialistas recomendam desconfiar e checar antes de compartilhar. Sinais comuns de um deepfake incluem:
No Brasil, onde quase 90% da população admite já ter acreditado em uma fake news, iniciativas públicas e privadas buscam ampliar a educação midiática. O Senado Federal, por exemplo, relançou o site Senado Verifica com foco em uma atuação mais proativa e educativa no combate à desinformação, especialmente diante das eleições de 2026. Ministérios também usam seus canais para desmentir informações falsas que ganham viralidade.
Os deepfakes representam uma ameaça significativa, com potencial para:
A legislação ainda tenta acompanhar a tecnologia. Nos EUA, estados como Texas, Virgínia e Califórnia têm leis específicas que criminalizam deepfakes usados para interferir em eleições ou criar pornografia não consensual. O caminho para enfrentar o problema, no entanto, parece combinar vigilância crítica do público, ferramentas de detecção tecnológica e marco regulatório claro.
Com informações de: G1, CNN Brasil, Washington Post, Agência Brasil, Senado Federal, Gov.br MDHC, Malwarebytes, DataCamp ■