Economia
Chats de IA exibem conteúdo de assinantes de jornais sem autorização

Com o avanço das tecnologias de inteligência artificial (IA) que buscam informações atualizadas na internet, sistemas como o ChatGPT têm conseguido ultrapassar bloqueios de sites jornalísticos, apresentando partes de reportagens e artigos que normalmente são exclusivos para assinantes desses veículos.
Embora a IA mencione a fonte, ela acaba fornecendo grande parte do conteúdo, dispensando o leitor de acessar diretamente o site original, mesmo quando o material está protegido por assinaturas.
Essa prática tem aumentado com o crescimento das funcionalidades das IAs que realizam pesquisas em tempo real com dados disponíveis online.
Essa situação abre espaço para disputas judiciais relacionadas à violação de direitos autorais pelas plataformas de IA, uma vez que tradicionais meios de imprensa, como os da Editora Globo, restringem o uso de seus conteúdos para o treinamento desses modelos. Por exemplo, o ChatGPT, desenvolvido pela OpenAI, pode entregar resumos detalhados e até trechos literais de reportagens e colunas protegidas por assinatura.
A partir do título da matéria e da fonte, a IA acessa as informações e apresenta uma síntese, texto adaptado e, se requisitado, excertos originais. Isso foi comprovado em testes realizados pelo jornal O Globo com conteúdos do próprio veículo e de outros.
Em um dos testes, foi pedido ao chatbot um resumo detalhado de um texto da colunista do Globo Malu Gaspar, publicado em 3 de julho, intitulado “Oposição vê Alexandre de Moraes ‘entre a cruz e a espada’ na crise do IOF”. A ferramenta forneceu o resumo solicitado e, ao serem requisitados mais detalhes, destrinchou o conteúdo em tópicos com trechos parafraseados e citações, como uma declaração da senadora Damares Alves (Republicanos-DF). O chatbot inclusive se dispôs a fornecer mais informações sobre o contexto político abordado.
A IA também respondeu com detalhes sobre uma coluna do mesmo dia escrita por Ruy Castro para a Folha de S.Paulo, detalhando os argumentos do autor, os casos mencionados e explicando metáforas empregadas no texto.
Em uma reportagem do Valor Econômico que aborda o crescimento econômico de João Pessoa, o ChatGPT forneceu números populacionais e econômicos da cidade, relatos de pessoas entrevistadas e exemplos de empreendimentos citados.
Além do ChatGPT, outras IAs como o Grok, da rede social X, e o Perplexity também demonstraram capacidade de burlar sistemas de assinatura, com o Perplexity apresentando trechos idênticos aos originais.
Essa exposição detalhada do conteúdo cria um impasse para os veículos que não autorizam o uso de seus textos para treinar modelos de IA. Mesmo com bloqueios técnicos que impedem a inclusão no banco de dados dos modelos, são necessários mecanismos para impedir que as respostas em tempo real com conteúdos restritos sejam geradas, o que se torna mais difícil com a multiplicação das ferramentas de IA.
Segundo Luca Belli, professor da FGV Direito Rio e coordenador do Centro de Tecnologia e Sociedade, esse comportamento se caracteriza como uma “apropriação indevida de propriedade intelectual” ao contornar barreiras para exibir conteúdos protegidos.
Ele destaca que, apesar de proibir o uso do conteúdo para treinamento, não há garantias de que as respostas geradas não estejam também alimentando o aprendizado da IA, avaliando que há pouca transparência sobre as bases de dados utilizadas.
Desde o lançamento das IAs generativas, uma discussão jurídica ganhou força sobre o uso de conteúdo protegido. Um caso emblemático envolve o New York Times, que processou a OpenAI pelo uso não autorizado de seus artigos.
Modelos mais recentes do ChatGPT passaram a ser lançados com menos detalhes técnicos sobre as fontes de dados usadas.
Em 2024, a americana News Corp, dona do Wall Street Journal e do New York Post, entrou com ação contra a Perplexity por usar reportagens sem permissão.
Também em 2024, uma coalizão de veículos como The Atlantic, Forbes e o britânico The Guardian processou a startup canadense Cohere por reproduzir textos jornalísticos protegidos por paywall.
No Brasil, ainda sem regulação específica para o uso de conteúdo jornalístico por IA, especialistas em propriedade intelectual afirmam que há riscos claros de violação de direitos autorais quando a IA entrega conteúdos baseados em releitura ou resumos detalhados realizados a partir de textos protegidos.
Para Marcelo Rech, presidente da Associação Nacional de Jornais (ANJ), trata-se de uma “apropriação indevida” do conteúdo, e a associação recomenda bloqueios técnicos rigorosos contra rastreadores dessas ferramentas.
Antonio Claudio Ferreira Netto, diretor jurídico do Grupo Globo, ressalta que o uso não autorizado de matérias protegidas para treinamento e geração de respostas configura infração à legislação brasileira, além de caracterizar contrafação ou plágio quando o texto gerado pelo sistema é similar ou cópia do original.
Ele defende a criação de uma legislação específica para IA que exija consentimento e remuneração pelo uso do material jornalístico e que o uso de conteúdo para o treinamento dos modelos deve sempre contar com autorização do titular dos direitos.

Você precisa estar logado para postar um comentário Login