Mundo
Vídeos falsos sobre conflito no Oriente Médio aumentam no X mesmo com avisos
Vídeos falsificados com inteligência artificial (IA) têm se proliferado no X, exibindo imagens de soldados americanos supostamente capturados pelo Irã, cidades israelenses em destruição e embaixadas dos EUA em chamas, como parte de uma onda de desinformação, mesmo com regras mais rígidas para combatê-la.
O conflito no Oriente Médio tem provocado uma enorme quantidade de imagens criadas por IA que ultrapassam tudo o que se viu em guerras anteriores, frequentemente confundindo os usuários sobre o que é real ou falso, segundo estudiosos.
Para proteger a “informação autêntica” durante estas crises, a rede social de Elon Musk anunciou na semana passada uma suspensão de 90 dias no programa de remuneração para criadores que postam vídeos sobre a guerra sem informar que foram gerados por IA.
Se persistirem em divulgar esse tipo de material, a suspensão será definitiva, informou a chefe de produto, Nikita Bier, em comunicado na plataforma.
Essa mudança de política marca um ponto importante para a rede social, frequentemente criticada por ser um terreno fértil para desinformação desde que Elon Musk a adquiriu por 44 bilhões de dólares em outubro de 2022.
Entretanto, especialistas se mostram desconfiados.
“Os temas monitorados ainda são inundados por conteúdo gerado por IA relacionado à guerra”, afirmou à AFP Joe Bodnar, do Instituto para o Diálogo Estratégico.
“Não parece que os divulgadores tenham sido desencorajados a compartilhar imagens e vídeos enganosos sobre o conflito produzidos por IA”, acrescentou.
Bodnar citou um post de uma conta verificada, qualificada para monetização, contendo vídeo feito com IA que mostrava um suposto ataque iraniano com capacidade nuclear contra Israel.
Incentivos para as falsificações
A X não respondeu a questionamentos da AFP sobre quantas contas tiveram suas monetizações suspensas após a implementação da nova norma.
A rede global de verificação da AFP, atuando do Brasil à Índia, confirma o fluxo constante de conteúdos falsos gerados por IA relacionados à guerra no Oriente Médio, muitos publicados por contas pagas na plataforma.
Dentre esses vídeos, há representações falsas de soldados americanos chorando em embaixadas bombardeadas, militares rendidos ao lado de bandeiras iranianas e frotas de navios dos Estados Unidos destruídas.
Esse volume de imagens fabricadas, mescladas às reais, cresce mais rápido do que os verificadores conseguem identificá-las.
O chatbot de IA do X, Grok, também agravou a situação ao fornecer respostas incorretas sobre a veracidade de conteúdos gerados por IA relacionados ao conflito.
Pesquisas indicam ainda que o sistema da plataforma que permite que contas premium ganhem dinheiro com base no engajamento tem ampliado os incentivos econômicos para conteúdos falsos e sensacionalistas.
Uma conta premium publicou um vídeo com o edifício Burj Khalifa em Dubai em chamas, ignorando o pedido de Nikita Bier para identificar o conteúdo como criação de IA. O vídeo continua disponível e já recebeu mais de dois milhões de visualizações.
Medidas para conter a desinformação
No mês anterior, um estudo do Tech Transparency Project mostrou que a X aparentava lucrar com diversas contas premium pertencentes a funcionários do governo iraniano e mídias estatais, responsáveis por disseminar propaganda, possivelmente violando sanções americanas.
Posteriormente, a plataforma removeu a verificação azul de algumas dessas contas, conforme o relatório.
Apesar da rigidez da nova política, muitos usuários que compartilham conteúdos gerados por IA não participam do programa de monetização, segundo especialistas.
Essas contas continuam sujeitas à análise pelo sistema Community Notes, cuja eficiência tem sido questionada.
Um estudo do Instituto Democracia Digital para as Américas revelou que mais de 90% das notas do Community Notes nunca foram publicadas.
“A política do X é uma resposta razoável diante da desinformação viral sobre a guerra, que em princípio reduz os incentivos econômicos”, afirmou Alexios Mantzarlis, diretor da Security, Trust, and Safety Initiative da Cornell Tech.
Porém, Mantzarlis complementou que é improvável que o X consiga garantir ao mesmo tempo alta precisão e uma remoção significativa de conteúdos gerados por IA apenas com essa política.

Você precisa estar logado para postar um comentário Login