Notícias Recentes
Gilmar Mendes sugere grupo especial para identificar deep fake nas eleições
O ministro Gilmar Mendes, atuando como ministro substituto no Tribunal Superior Eleitoral (TSE), propôs nesta terça-feira (3) a criação de um grupo especial formado por peritos técnicos e instituições acadêmicas para identificar rapidamente conteúdos gerados por inteligência artificial (IA) durante o período eleitoral, principalmente os chamados deep fakes, que são vídeos, áudios e imagens manipulados de maneira muito realista por IA.
Gilmar Mendes destacou que a atuação da Justiça Eleitoral deve ir além de uma postura reativa ou apenas punitiva. Ele defendeu o aumento da capacidade técnica do TSE para lidar de forma proativa e preventiva com as deep fakes.
Essa ação poderia ser realizada através da formação de um grupo técnico especializado para analisar rapidamente conteúdos sintéticos durante as eleições, com o credenciamento prévio de especialistas e laboratórios de pesquisa universitários, sugeriu o ministro.
Gilmar Mendes acrescentou que essa iniciativa ajudaria a garantir maior segurança técnica, agilidade nas decisões e legitimidade institucional na resposta a desafios complexos relacionados ao uso da inteligência artificial.
Segundo as regras atuais da Justiça Eleitoral sobre o uso de IA nas campanhas, o deep fake é proibido. Ele é definido como qualquer conteúdo fabricado em áudio, vídeo ou combinação de ambos que tenha sido criado ou alterado digitalmente para modificar a imagem ou a voz de uma pessoa real, falecida ou fictícia.
As normas vigentes foram propostas antes das eleições municipais de 2024. No momento, o TSE está discutindo, em audiências públicas, as propostas para as resoluções eleitorais deste ano. Foi durante a abertura dessas audiências que Gilmar Mendes apresentou a sugestão para que o tribunal intensifique a fiscalização do uso de deep fakes.
Além disso, Gilmar Mendes propôs que a Justiça Eleitoral estabeleça acordos com empresas que fornecem ferramentas de IA capazes de gerar conteúdos de imagem e áudio, para que possam cooperar com o TSE e adotar medidas que impeçam o uso inadequado dessas tecnologias.
Ele ressaltou que a cooperação com essas empresas é essencial para implementar medidas preventivas, como mecanismos para rastrear e identificar conteúdos gerados artificialmente, marcação clara desses conteúdos, proteção contra o uso abusivo das ferramentas de geração de deep fakes e respostas rápidas diante de usos ilegais ou que possam desestabilizar o processo eleitoral.
Em janeiro, a Justiça Eleitoral divulgou 12 minutas de resolução e abriu prazo para recebimento de sugestões da sociedade civil, encerrado em 30 de janeiro. Algumas propostas foram selecionadas para apresentação em audiências públicas realizadas nos dias 3 e 4 de fevereiro.
É obrigatório, conforme a legislação em vigor, que o plenário do TSE aprove essas normas até 5 de março do ano eleitoral, após debate e participação da sociedade civil em cada ciclo eleitoral.

Você precisa estar logado para postar um comentário Login