Mundo
Conflito no Oriente Médio e Chuvas em Minas Gerais impulsionam vídeos falsos gerados por IA
Incêndios no Burj Khalifa, águas turbulentas, voos rasantes de aviões iranianos e um gesto tocante de solidariedade entre animais.
O recente conflito no Oriente Médio aliado às enchentes devastadoras em Minas Gerais revelam uma nova fase da desinformação: a ampla circulação de vídeos criados por inteligência artificial durante acontecimentos de grande repercussão pública.
Após uma ação conjunta dos Estados Unidos e Israel contra alvos iranianos no sábado (28), seguida por uma resposta rápida, vídeos começaram a viralizar na rede social X, apresentando supostos ataques.
Um desses vídeos mostra o Burj Khalifa em chamas, como se fosse atingido por uma bomba, algo que não ocorreu. Um dos perfis que compartilhou esse vídeo, claramente produzido por IA, ultrapassou 1 milhão de visualizações.
Na madrugada da segunda-feira (2), outro vídeo na mesma rede mostra aviões fazendo rasantes em Dubai enquanto lançam mísseis. Também era uma criação falsa por IA, denunciada pela mão humana visível na sacada. Um único perfil alcançou mais de 6,5 milhões de visualizações. A rede social de Elon Musk possui ainda vídeos simulando pessoas assustadas nas ruas de cidades parecidas com os Emirados Árabes e supostos ataques a porta-aviões americanos.
Embora a propagação de informações falsas durante conflitos seja antiga, a última semana mostrou que isso atingiu também eventos de comoção pública, como as enchentes em Minas Gerais.
Vídeos no TikTok mostravam correntezas exageradas e o colapso de construções: um vídeo ultrapassou 1 milhão de visualizações, e outro estava próximo de 700 mil.
Alguns desses conteúdos apareciam identificados como feitos por IA, mas os comentários demonstravam tristeza e medo. Vídeos sinalizados como sintéticos foram repostados sem essa indicação, com manipulações para eliminar marcas d’água que identificam produções artificiais.
Surgiram também imagens emocionantes de animais presos na enchente, tentando remeter à história do cavalo Caramelo nas enchentes do Rio Grande do Sul em 2025. Um vídeo de uma vaca carregando quatro cães alcançou quase 500 mil visualizações.
Certos vídeos promoviam campanhas para arrecadação de fundos às vítimas das enchentes, enquanto outros faziam críticas a governantes.
As plataformas X e TikTok não responderam aos pedidos de esclarecimento da imprensa.
Um problema em crescimento
O uso de IA para gerar conteúdo relacionado a temas de interesse público não é recente: desde 2023, quando os geradores de imagem passaram a ser populares, seu uso tem crescido. Em 2023, o argentino Javier Milei usou vídeos criados por IA na campanha presidencial, enquanto Donald Trump passou a empregar imagens sintéticas desde que assumiu a presidência dos Estados Unidos.
Em janeiro deste ano, fotos criadas por IA viralizaram durante o ataque dos EUA à Venezuela, retratando supostas detenções de Nicolas Maduro. Além disso, deep fakes, vídeos reais alterados por IA, têm sido uma tentativa constante há anos.
O que os eventos recentes no Oriente Médio e Minas Gerais demonstram é que os geradores de vídeos por IA representam um desafio crescente na luta contra a desinformação online. Novas IAs lançadas em fevereiro, como Seedance 2.0 e Nanobanana 2, impressionam pelo realismo e nível de detalhes. Seedance, da ByteDance (empresa responsável pelo TikTok), lançado em 10 de fevereiro, e Nanobanana, do Google, lançado em 26 de fevereiro e integrado ao Gemini, utilizam dados em tempo real para representar temas específicos com alta precisão.
Até então, geradores de IA apresentavam limitações perceptíveis a olhos atentos, como inconsistências visuais, falta de coerência na iluminação e descompasso entre voz e imagem. Tais falhas apareceram tanto nos vídeos do Oriente Médio quanto nos de Minas Gerais, com imagens de corredeiras desafiando a gravidade e pessoas com membros deformados.
Grandes empresas de tecnologia têm apostado em marcas d’água para identificar conteúdos gerados por IA, porém elas podem ser facilmente removidas, diminuindo a eficácia. O Google lançou em 2024 o SynthID, uma marcação invisível para conteúdos gerados, semelhante à iniciativa da Meta. Ainda assim, essas assinaturas são vulneráveis a técnicas simples que comprometem sua eficácia, e as ferramentas de detecção só funcionam para conteúdos gerados por suas próprias IAs.
A esperança está num detector universal para vídeos gerados por IA, mas o desenvolvimento enfrenta obstáculos técnicos significativos, conforme explica Gabriel Bertocco, pesquisador do Recod.ai (laboratório de IA da Universidade Estadual de Campinas – Unicamp).
Segundo ele, a dificuldade está em dois pontos: a necessidade de utilizar um grande número de geradores para criar uma vasta quantidade de conteúdos para treinamento, e o desafio dos modelos de IA específicos que podem ter problemas ao lidar com tipos de dados não incluídos nos treinamentos.
Detectores podem não identificar conteúdos gerados por versões mais recentes das IAs usadas na criação das bases de treinamento. Por exemplo, um detector treinado com dados da primeira versão do Sora, da OpenAI, pode ser menos eficaz para vídeos produzidos pelo Sora 2.
Como reconhecer vídeos criados por IA
Para evitar cair em enganos com vídeos falsos que circulam nas redes, especialistas destacam que detectar a origem do material é fundamental. A análise deve considerar quem publicou o vídeo e em que momento, especialmente se está ligado a períodos críticos.
Carolina Terra, pesquisadora e professora da USP, orienta: “A origem do vídeo é muito importante. A primeira coisa é ficar atento a quem publicou e em qual momento. Isso coincide com algum período crítico? Desconfie.”
Gabriel Bertocco acrescenta que é essencial buscar informações confirmadas em múltiplas fontes confiáveis para assegurar a veracidade.
Assim, a combinação de atenção à origem, contexto e checagem em diversas fontes é a melhor estratégia para não ser enganado por vídeos falsos criados por inteligência artificial.

Você precisa estar logado para postar um comentário Login