Conecte Conosco

Brasil

Conflito no Oriente Médio e chuvas em MG aumentam vídeos falsos feitos por IA

Publicado

em

Fogo no Burj Khalifa, águas turbulentas, aviões iranianos voando baixo e uma incrível demonstração de solidariedade entre animais.

O recente conflito no Oriente Médio e as enchentes em Minas Gerais evidenciaram uma nova fase da desinformação na internet: a disseminação em massa de vídeos produzidos com inteligência artificial durante eventos de grande repercussão.

Logo após a ação conjunta dos EUA e Israel contra alvos iranianos no sábado (28), e a resposta rápida que se seguiu, começaram a circular no X vídeos supostamente mostrando ataques.

Em um deles, o Burj Khalifa aparece em chamas, como se tivesse sido atingido por uma bomba, fato que não ocorreu. Apenas um dos perfis que compartilhou esse vídeo, que apresenta sinais claros de criação por IA, acumulou mais de 1 milhão de visualizações.

Outro vídeo publicado na madrugada de segunda (2) mostra aviões fazendo voos rasantes em Dubai enquanto lançam mísseis. Também é uma produção falsa feita por IA — a presença da mão humana na sacada denuncia a manipulação. Um único perfil teve mais de 6,5 milhões de visualizações. A rede social de Elon Musk abriga ainda vídeos de pessoas supostamente assustadas nas ruas de cidades que tentam se passar pelos Emirados Árabes, além de imagens falsas de ataques a navios de guerra americanos.

A difusão de informações erradas durante conflitos já é conhecida, mas na semana passada se ampliou para uma tragédia que comoveu: as enchentes em Minas Gerais.

No TikTok, vídeos exibiam correntes de água fora de controle e desmoronamento de casas. Um dos vídeos superava 1 milhão de visualizações, e outro chegava perto de 700 mil.

Alguns conteúdos estavam claramente marcados como produzidos por IA, mas os comentários demonstravam tristeza e preocupação. Vídeos de um perfil que indicava uso de IA passaram a ser replicados por outros sem essa indicação, contendo modificações que escondiam as marcas d’água que denunciam conteúdo sintético.

Também surgiram vídeos emocionantes de animais afetados pela enchente, buscando reproduzir histórias como a do cavalo Caramelo nas grandes enchentes do Rio Grande do Sul em 2025. Um vídeo de uma vaca carregando quatro cães teve quase meio milhão de visualizações.

Em certas ocasiões, os vídeos vinculavam campanhas de arrecadação para vítimas das enchentes; em outras, continham críticas aos governantes.

A rede social X não respondeu aos pedidos da imprensa, e a reportagem aguarda posicionamento do TikTok.

Um problema em crescimento

O uso de IA em temas de interesse público não é novidade: desde a popularização dos geradores de imagem em 2023, as ferramentas têm sido usadas cada vez mais. Em 2023, o argentino Javier Milei utilizou vídeos gerados por IA em sua campanha presidencial vitoriosa, e o Donald Trump passou a usar imagens sintéticas rotineiramente desde que assumiu a Casa Branca.

Em janeiro deste ano, fotos criadas por IA viralizaram durante o ataque dos EUA à Venezuela, especialmente imagens que mostravam a suposta detenção de Nicolas Maduro. Tentativas de utilizar deepfakes, vídeos reais manipulados por IA, já existem há alguns anos.

Porém, as situações no Oriente Médio e em Minas Gerais indicam que os geradores de vídeo por IA serão um grande desafio no complexo cenário da desinformação online. Duas novas IAs lançadas em fevereiro chamam atenção pelo realismo e detalhamento: Seedance 2.0, da ByteDance, dona do TikTok, e Nanobanana 2, do Google.

O Seedance, lançado em 10 de fevereiro, incomodou produtores de Hollywood pela qualidade cinematográfica do conteúdo gerado. O Nanobanana 2, lançado em 26 de fevereiro e integrado ao Gemini, utiliza informações e imagens em tempo real de buscas do Google para representar temas com maior precisão — nos testes feitos por especialistas, destacou-se pela riqueza de detalhes.

Até o momento, geradores de IA apresentavam limitações perceptíveis a observadores atentos e críticos, como explica a pesquisadora e professora da USP Carolina Terra. Ela aponta que os vídeos contêm incoerências visuais, iluminação inconsistente e falta de sincronismo entre voz e imagem.

Os vídeos tanto do Oriente Médio quanto de Minas Gerais exibem problemas como corredeiras desafiando a gravidade, mãos de pessoas deformadas e incêndios com aparência artificial. As próximas gerações de vídeos criados com IA prometem reduzir essas falhas, mas ainda não há solução definitiva.

Grandes empresas de tecnologia, como OpenAI, Google e Meta, inserem marcas d’água em seus vídeos gerados, que podem ser facilmente removidas. Em 2024, o Google lançou o SynthID, uma marcação invisível para conteúdos gerados por IA, similar à iniciativa da Meta do mesmo ano.

Essas técnicas, porém, podem ser contornadas, e as ferramentas de detecção só funcionam com IAs desenvolvidas pelas mesmas empresas — por exemplo, a detecção do Google não funciona para vídeos criados pela OpenAI.

A esperança é desenvolver um detector universal de vídeos feitos por IA, mas isso enfrenta desafios técnicos, conforme explica Gabriel Bertocco, pesquisador do Recod.ai, laboratório de IA da Universidade Estadual de Campinas (Unicamp):

“Existem dois pontos: um ligado aos dados e outro aos modelos. É necessário usar o maior número possível de geradores e criar uma vasta quantidade de conteúdos. Se aparecer uma imagem falsa criada por uma ferramenta não usada no treinamento, a performance do detector cai.”

Os desenvolvedores de detectores vivem uma corrida constante para aprimorar seus sistemas à medida que os modelos evoluem. Bertocco acrescenta que um modelo de IA de detecção pode ser eficiente para a tarefa a que foi projetado, mas apresentar dificuldades com tipos de dados não incluídos no treinamento. Um modelo menor pode ser mais rápido, mas menos generalista.

Além disso, detectores treinados com versões iniciais de um gerador podem não ser eficazes para materiais criados por versões mais recentes.

Como identificar vídeos feitos por IA

Para não ser enganado por vídeos como os que têm circulado nas últimas semanas, especialistas sugerem atenção além das falhas visuais ou tecnológicas.

Carolina Terra orienta:

“É muito importante verificar a origem do vídeo. O primeiro passo é observar quem publicou e quando. Se isso coincide com um momento delicado, fique desconfiado.”

Gabriel Bertocco complementa:

“É fundamental buscar fontes jornalísticas confiáveis e cruzar informações em múltiplas fontes. Esse é o conselho que sempre dou.”

Clique aqui para comentar

Você precisa estar logado para postar um comentário Login

Deixe um Comentário

Copyright © 2024 - Todos os Direitos Reservados