Conecte Conosco

Economia

Chats de IA exibem conteúdo de assinantes de jornais sem autorização

Publicado

em

Com o avanço das tecnologias de inteligência artificial (IA) que buscam informações atualizadas na internet, sistemas como o ChatGPT têm conseguido ultrapassar bloqueios de sites jornalísticos, apresentando partes de reportagens e artigos que normalmente são exclusivos para assinantes desses veículos.

Embora a IA mencione a fonte, ela acaba fornecendo grande parte do conteúdo, dispensando o leitor de acessar diretamente o site original, mesmo quando o material está protegido por assinaturas.

Essa prática tem aumentado com o crescimento das funcionalidades das IAs que realizam pesquisas em tempo real com dados disponíveis online.

Essa situação abre espaço para disputas judiciais relacionadas à violação de direitos autorais pelas plataformas de IA, uma vez que tradicionais meios de imprensa, como os da Editora Globo, restringem o uso de seus conteúdos para o treinamento desses modelos. Por exemplo, o ChatGPT, desenvolvido pela OpenAI, pode entregar resumos detalhados e até trechos literais de reportagens e colunas protegidas por assinatura.

A partir do título da matéria e da fonte, a IA acessa as informações e apresenta uma síntese, texto adaptado e, se requisitado, excertos originais. Isso foi comprovado em testes realizados pelo jornal O Globo com conteúdos do próprio veículo e de outros.

Em um dos testes, foi pedido ao chatbot um resumo detalhado de um texto da colunista do Globo Malu Gaspar, publicado em 3 de julho, intitulado “Oposição vê Alexandre de Moraes ‘entre a cruz e a espada’ na crise do IOF”. A ferramenta forneceu o resumo solicitado e, ao serem requisitados mais detalhes, destrinchou o conteúdo em tópicos com trechos parafraseados e citações, como uma declaração da senadora Damares Alves (Republicanos-DF). O chatbot inclusive se dispôs a fornecer mais informações sobre o contexto político abordado.

A IA também respondeu com detalhes sobre uma coluna do mesmo dia escrita por Ruy Castro para a Folha de S.Paulo, detalhando os argumentos do autor, os casos mencionados e explicando metáforas empregadas no texto.

Em uma reportagem do Valor Econômico que aborda o crescimento econômico de João Pessoa, o ChatGPT forneceu números populacionais e econômicos da cidade, relatos de pessoas entrevistadas e exemplos de empreendimentos citados.

Além do ChatGPT, outras IAs como o Grok, da rede social X, e o Perplexity também demonstraram capacidade de burlar sistemas de assinatura, com o Perplexity apresentando trechos idênticos aos originais.

Essa exposição detalhada do conteúdo cria um impasse para os veículos que não autorizam o uso de seus textos para treinar modelos de IA. Mesmo com bloqueios técnicos que impedem a inclusão no banco de dados dos modelos, são necessários mecanismos para impedir que as respostas em tempo real com conteúdos restritos sejam geradas, o que se torna mais difícil com a multiplicação das ferramentas de IA.

Segundo Luca Belli, professor da FGV Direito Rio e coordenador do Centro de Tecnologia e Sociedade, esse comportamento se caracteriza como uma “apropriação indevida de propriedade intelectual” ao contornar barreiras para exibir conteúdos protegidos.

Ele destaca que, apesar de proibir o uso do conteúdo para treinamento, não há garantias de que as respostas geradas não estejam também alimentando o aprendizado da IA, avaliando que há pouca transparência sobre as bases de dados utilizadas.

Desde o lançamento das IAs generativas, uma discussão jurídica ganhou força sobre o uso de conteúdo protegido. Um caso emblemático envolve o New York Times, que processou a OpenAI pelo uso não autorizado de seus artigos.

Modelos mais recentes do ChatGPT passaram a ser lançados com menos detalhes técnicos sobre as fontes de dados usadas.

Em 2024, a americana News Corp, dona do Wall Street Journal e do New York Post, entrou com ação contra a Perplexity por usar reportagens sem permissão.

Também em 2024, uma coalizão de veículos como The Atlantic, Forbes e o britânico The Guardian processou a startup canadense Cohere por reproduzir textos jornalísticos protegidos por paywall.

No Brasil, ainda sem regulação específica para o uso de conteúdo jornalístico por IA, especialistas em propriedade intelectual afirmam que há riscos claros de violação de direitos autorais quando a IA entrega conteúdos baseados em releitura ou resumos detalhados realizados a partir de textos protegidos.

Para Marcelo Rech, presidente da Associação Nacional de Jornais (ANJ), trata-se de uma “apropriação indevida” do conteúdo, e a associação recomenda bloqueios técnicos rigorosos contra rastreadores dessas ferramentas.

Antonio Claudio Ferreira Netto, diretor jurídico do Grupo Globo, ressalta que o uso não autorizado de matérias protegidas para treinamento e geração de respostas configura infração à legislação brasileira, além de caracterizar contrafação ou plágio quando o texto gerado pelo sistema é similar ou cópia do original.

Ele defende a criação de uma legislação específica para IA que exija consentimento e remuneração pelo uso do material jornalístico e que o uso de conteúdo para o treinamento dos modelos deve sempre contar com autorização do titular dos direitos.

Clique aqui para comentar

Você precisa estar logado para postar um comentário Login

Deixe um Comentário

Copyright © 2024 - Todos os Direitos Reservados