Conecte Conosco

Centro-Oeste

Golpistas usam IA para criar vídeos falsos e pedem dinheiro

Publicado

em

Com o uso da inteligência artificial (IA), uma quadrilha está modificando vídeos existentes nas redes sociais para aplicar golpes, solicitando doações para projetos sociais inexistentes. Esses vídeos adulterados aparecem em anúncios no YouTube em todo o Brasil.

Um dos projetos sociais utilizados pelos criminosos é o Casa Francisco de Assis, uma instituição de caridade que já existiu, mas que atualmente está com o Cadastro Nacional de Pessoa Jurídica (CNPJ) baixado, o que indica que não está mais em funcionamento. Os vídeos modificados são enviados pelos golpistas a partir de uma conta no YouTube chamada Casa São Francisco de Assis.

Como funciona o golpe?

  • Os criminosos copiam vídeos de contas legítimas de projetos sociais, que vão desde instituições de caridade até pessoas públicas como famosos e deputados, e alteram a voz e a fala utilizando IA;
  • Nos vídeos falsificados, eles pedem doações para diversas causas, incluindo lares para idosos, crianças em situação de vulnerabilidade, pessoas passando fome e organizações de proteção animal;
  • Uma das vítimas desse golpe é a professora Katya Lichtnow, fundadora da Escola de Cuidados ISS, que atua há seis anos no Brasil e em Portugal, capacitando cuidadores de idosos. Katya teve um vídeo seu alterado, onde sua fala foi distorcida e ela pedia dinheiro para uma instituição inexistente, enquanto o vídeo original trata de outro tema.

Katya foi alertada sobre o vídeo falso por uma amiga e registrou boletim de ocorrência, além de denunciar o conteúdo na plataforma, mas o vídeo continua circulando.

Segundo ela, a situação é frustrante pois esses golpistas conseguem arrecadar grandes quantias antes que sejam detidos. Ela recomenda que as pessoas verifiquem a autenticidade das instituições antes de fazer doações e sempre tentem confirmar a veracidade com os responsáveis pelos projetos.

O golpe atinge especialmente pessoas mais velhas, com pouco conhecimento em tecnologia, que tendem a acreditar em causas que aparentam ser nobres, tornando-se vítimas desses golpes.

Vítimas e denúncias

Até o momento, não há uma estimativa precisa da quantidade de pessoas lesadas pelo golpe, mas muitos usuários reclamam nos comentários da conta dos criminosos, que também possui uma página no Instagram com mais de 50 mil seguidores, aparentemente comprados para passar maior credibilidade, apesar do baixo engajamento nas publicações.

Posicionamento do YouTube

O YouTube Brasil afirmou que realizou uma análise criteriosa e removeu os conteúdos que infringiam suas políticas. A empresa enfatizou que não permite spam, golpes ou práticas enganosas que prejudiquem a comunidade da plataforma, e remove rapidamente conteúdos que tentem redirecionar usuários para sites externos de maneira abusiva.

Como identificar e evitar esses golpes

De acordo com a Polícia Civil do Distrito Federal, houve aumento significativo das ocorrências relacionadas à produção não autorizada de vídeos por IA, chegando a 48 casos em 2024, um crescimento de 128% em relação ao ano anterior.

O delegado Eduardo Del Fabbro, da Delegacia de Repressão aos Crimes Cibernéticos, destaca que os golpes com uso de IA estão cada vez mais sofisticados e usados também para vender produtos, aplicar fraudes financeiras, solicitar pagamentos via Pix e em esquemas fraudulentos como pirâmides.

Alguns sinais para identificar vídeos criados por IA, conhecidos como deepfakes, incluem olhar fixo que não se move, movimentos labiais desconectados da fala real, tom de voz monótono e alterações bruscas na velocidade da fala.

O professor de direito digital do Ibmec Brasília, Alisson Possa, recomenda sempre confirmar a veracidade das solicitações por meio de outro canal confiável, como ligações telefônicas ou mensagens de voz para garantir a identidade da pessoa.

A advogada Manuela Menezes Silva, da Comissão de Privacidade, Proteção de Dados e IA da OAB São Paulo, relata casos em que golpistas ligam, usando deepfake, para idosos pedindo dinheiro, e aconselha desconfiar de chamadas urgentes e estabelecer códigos de segurança com familiares e amigos próximos.

Ela explica que um indicativo de vídeo falso é perceber que a movimentação da boca não acompanha a fala, parecendo uma dublagem realizada por inteligência artificial.

Clique aqui para comentar

Você precisa estar logado para postar um comentário Login

Deixe um Comentário

Copyright © 2024 - Todos os Direitos Reservados