Conecte Conosco

Notícias Recentes

Justiça Eleitoral condena deepfake em 20% dos casos e tem dificuldades para identificar IA

Publicado

em

A poucos dias das eleições de 2024, em Caxias (MA), localizada a 372 quilômetros da capital São Luís, um episódio chamou atenção durante um comício. O então prefeito da cidade subiu ao palco para apoiar o sobrinho candidato e aproximou o celular do microfone para divulgar um áudio que chamou de “absurdo”.

Esse áudio trazia a voz de um homem afirmando que “já disse para Paulinho que ele teria que demitir todos os contratados” da prefeitura. A voz foi atribuída ao ex-deputado Paulo Marinho, pai do candidato Paulo Marinho Junior (PL). O candidato foi derrotado por uma pequena diferença de 565 votos entre mais de 111 mil eleitores.

Paulinho, derrotado pelo filho do prefeito, levou a questão à Justiça Eleitoral, acusando a campanha adversária de usar deepfake, que teria simulado a voz de seu pai por meio de inteligência artificial (IA).

Porém, a ação foi rejeitada pois a perícia da Polícia Federal não conseguiu confirmar a autenticidade do áudio, ficando inconclusivo se a voz era manipulada por IA. A defesa dos acusados defendeu a ausência de comprovação técnica da manipulação alegada.

Esse caso ilustra os desafios enfrentados pela Justiça Eleitoral para punir o uso de deepfakes em campanhas eleitorais. Um estudo realizado por Jhennifer Macedo, do Instituto Brasileiro de Ensino, Desenvolvimento e Pesquisa (IDP), revelou que, nas eleições de 2024, apenas 20% dos casos relacionados a deepfakes resultaram em condenação.

O Tribunal Superior Eleitoral (TSE) adotou medidas para conter o uso indiscriminado da IA nas campanhas. Uma resolução recente proíbe a publicação de conteúdos gerados por IA nas 72 horas antes do pleito e exige que qualquer propaganda manipulada informe, de maneira clara e acessível, que o material é fabricado ou alterado.

Uma grande inovação foi a autorização para a “inversão do ônus da prova”, permitindo que o juiz exija do acusado a comprovação da veracidade do conteúdo publicado. Além disso, os tribunais podem firmar parcerias com universidades e outras entidades para auxiliar nas perícias.

Jhennifer Macedo destaca que, sem uma confirmação técnica robusta, a punição de deepfakes é inviável, mesmo com indícios evidentes de manipulação e prejuízo ao processo eleitoral. A inversão do ônus da prova combaterá justamente essa dificuldade em comprovar manipulações digitais.

Esse mecanismo poderia ter alterado o resultado da eleição em Caxias, onde o juiz solicitou o áudio original. Mas a defesa alegou o direito constitucional à não autoincriminação e contestou a ordem, deixando a perícia baseada em gravações de qualidade inferior, que não permitiram conclusões.

As decisões sobre deepfake na Justiça Eleitoral variam. Algumas permitem certos conteúdos, outras os proíbem totalmente, e há casos em que o grau de manipulação é avaliado para o julgamento. Essa variação indica a necessidade de uma interpretação uniforme para esses casos.

Além disso, em 62% dos casos, conteúdos considerados “expressivos” não foram proibidos, por serem classificados como sátira, crítica ou humor, enquanto para outros a ilicitude pode depender do potencial de prejudicar adversários.

Um exemplo ocorreu em Pescaria Brava (SC), onde um vídeo com deepfake chamando um candidato de “Rei do Pó” foi compartilhado via WhatsApp. A Justiça mandou excluir o vídeo, mas não aplicou punições, observando que não houve viralização em massa.

Outra dificuldade da Justiça Eleitoral é identificar os autores dos conteúdos, prejudicando a aplicação de multas ou cassações. Em Goiânia (GO), um vídeo com montagem do governador Ronaldo Caiado criticando um candidato foi reconhecido como sintético manipulado, mas, mesmo com identificação do responsável, o processo foi encerrado após o candidato desistir da ação.

Especialistas veem que a autorregulação das plataformas pode ajudar no combate às deepfakes. O YouTube, por exemplo, passou a oferecer uma ferramenta para políticos detectarem conteúdos falsos criados por IA, após a resolução do TSE que responsabiliza as plataformas pela remoção desses materiais.

Para o advogado Diogo Rais, ex-juiz do TRE-SP, a dificuldade maior não é a ausência de regras, mas a infraestrutura técnica limitada para atuar com rapidez e volume.

Heloísa Massaro, do InternetLab, acredita que o TSE é pioneiro na regulação, mas ainda falta uma legislação ampla sobre IA no Brasil, o que requer esforços no Congresso.

Deepfake no cenário internacional

O uso de deepfakes em eleições é um fenômeno global, com punições variadas. Nos EUA, o consultor político Steve Kramer foi multado em US$ 6 milhões por usar IA para simular a voz do presidente Joe Biden em ligações automáticas durante as eleições de 2024. Uma lei para proteger eleições contra IA ainda tramita no Congresso americano.

Na Argentina, um vídeo falso com a imagem e voz do ex-presidente Mauricio Macri anunciando a renúncia de uma candidata foi removido, com a abertura de processo contra os autores.

Yasmin Curzi, da FGV Direito Rio, frisa que o Brasil carece de uma agência reguladora para definir normas para plataformas, ao contrário de regiões como Europa e Austrália, onde críticas apontam para falta de ação reativa eficaz.

Um estudo da FGV Comunicação identificou casos de IA usada para manipular eleições na África do Sul, México e Índia, incluindo vídeos com celebridades falsas e declarações forjadas de políticos. Apesar da regulação na União Europeia, casos de deepfakes em eleições ainda aparecem.

Segundo Rafael Zanatta, do Data Privacy Brasil, ao regulamentar a IA nas eleições, o TSE assumiu papel de regulador da tecnologia no Brasil, diferentemente de outros países onde há debates sobre limitações legais para conteúdos políticos gerados por IA.

Clique aqui para comentar

Você precisa estar logado para postar um comentário Login

Deixe um Comentário

Copyright © 2024 - Todos os Direitos Reservados