Conecte Conosco

Economia

Brasileiros têm dificuldade em reconhecer vídeos falsos gerados por IA

Publicado

em

Mesmo com ampla exposição nas redes sociais, a maior parte dos brasileiros encontra dificuldade em identificar deepfakes — vídeos realistas criados por inteligência artificial (IA) que simulam pessoas de forma convincente. Esse cenário representa um desafio significativo para as autoridades, especialmente em períodos eleitorais.

Uma pesquisa recente da Veriff, empresa especializada em verificação de identidade digital, revelou que 80% dos brasileiros já se depararam com deepfakes, percentual superior à média mundial de 60%. Contudo, apenas 29% conseguem distinguir vídeos falsos, enquanto 35% acertam ao identificar vídeos autênticos.

Este descompasso evidencia a rápida evolução tecnológica do setor. Andrea Rozenberg, diretora de mercados emergentes da Veriff, comenta:

“Até pouco tempo atrás, as pessoas conseguiam reconhecer vídeos falsos por erros visuais, como dedos extras ou partes do rosto ausentes. Hoje esses erros já não são mais comuns.”

Novas ferramentas lançadas por grandes empresas, como Seedance 2.0 da ByteDance e Nanobanana 2 do Google, têm elevado o realismo dos vídeos gerados, dificultando a distinção entre o real e o sintético. Além disso, versões abertas dessas tecnologias facilitam o acesso por criminosos, ampliando o uso fraudulento.

Andrea ainda ressalta que a percepção humana não consegue diferenciar um deepfake de um vídeo verdadeiro simplesmente observando, tornando a medicina analógica — como verificar a procedência do conteúdo — a principal solução.

Na pesquisa da Veriff, os participantes tiveram que identificar a autenticidade de diversas imagens e vídeos, incluindo trocas faciais e conteúdos totalmente gerados por IA, mas a ausência de soluções tecnológicas universais para detectar deepfakes gera mais complexidade. Ferramentas oferecidas por grandes empresas identificam apenas suas próprias IAs, o que limita a eficácia global contra fraudes digitais.

Além disso, detectores de deepfakes precisam de constante atualização para acompanhar as novas versões dessas IAs. Por exemplo, um detector treinado para a primeira versão do Nanobanana pode não reconhecer imagens da versão mais recente.

Preocupação da população e medidas legais

Os brasileiros refletem apreensão diante dessa realidade: 87% manifestam medo de fraudes e golpes de identidade, e 81% reconhecem o impacto potencial desse conteúdo na política. Dados da Polícia Federal indicam que 42,5% das fraudes financeiras no país utilizam ferramentas de IA, em especial deepfakes.

Para enfrentar esse cenário, o Tribunal Superior Eleitoral (TSE) estabeleceu regras rígidas para o uso de IA em campanhas eleitorais de 2026, exigindo rotulagem clara quando imagens, sons ou conteúdos forem manipulados. Também há restrições ao impulso ou publicação de tais materiais próximos ao período de votação.

Contudo, redes sociais como Instagram e TikTok já estão saturadas por vídeos sintéticos que comentam adversários e apoiam candidatos, e esses conteúdos se espalham por aplicativos de mensagens onde a fiscalização é mais difícil.

Um caso recente envolve o perfil “Dona Maria”, avatar de IA criado para criticar o governo, que alcançou milhões de visualizações antes de ser removido por uso de linguagem imprópria.

Produção crescente e dicas para se proteger

Além do consumo, os brasileiros também são produtores ativos desses conteúdos, com 59% dizendo já terem criado imagens ou vídeos com IA, índice maior que em outros países como Estados Unidos e Reino Unido.

Diante dessa realidade, especialistas recomendam atitudes analógicas para evitar ser enganado. Andrea Rozenberg recomenda sempre verificar a fonte dos vídeos, já que muitas pessoas tendem a confiar na autenticidade apenas pela presença de movimento nas imagens.

Gabriel Barbabela, chefe de produto da Veriff, sugere duas estratégias para casos que envolvem dinheiro: analisar se há urgência na solicitação — característica comum em golpes — e estabelecer uma palavra-chave secreta entre as partes para confirmar a autenticidade das comunicações, garantindo múltiplas camadas de segurança.

Clique aqui para comentar

Você precisa estar logado para postar um comentário Login

Deixe um Comentário

Copyright © 2024 - Todos os Direitos Reservados