Tribunal dos EUA rejeita defesa de startup de IA e alerta gigantes
Um tribunal federal dos Estados Unidos emitiu recentemente uma decisão histórica que pode ter implicações significativas para o futuro do desenvolvimento de inteligência artificial (IA). O caso envolve a startup Ross Intelligence, que foi acusada de violar direitos autorais ao utilizar conteúdo protegido da Thomson Reuters para treinar seu sistema de IA jurídica.
A decisão do juiz Stephanos Bibas, do Tribunal Distrital dos EUA em Delaware, rejeitou o argumento de "uso justo" apresentado pela Ross Intelligence. Este argumento é frequentemente utilizado por empresas de tecnologia para justificar o uso de dados protegidos por direitos autorais no treinamento de modelos de IA.
Embora a decisão seja específica para este caso, ela levanta questões importantes sobre como as leis de direitos autorais se aplicam ao desenvolvimento de IA em um cenário mais amplo. Especialistas do setor estão agora debatendo as possíveis ramificações para gigantes da tecnologia como OpenAI, Google e Microsoft.
Implicações para o setor de IA
A decisão do tribunal focou em quatro fatores tradicionais de uso justo: propósito e caráter do uso, natureza do trabalho protegido por direitos autorais, quantidade e importância da porção utilizada, e efeito sobre o valor potencial de mercado. A Ross Intelligence falhou em todos esses critérios, de acordo com o juiz Bibas.
Dois fatores foram particularmente prejudiciais para a defesa da Ross: a natureza comercial de seu uso e a falta de valor "transformador". A empresa havia simplesmente convertido resumos jurídicos em dados numéricos sobre relações entre palavras para treinar sua IA, essencialmente criando um produto concorrente ao sistema da Thomson Reuters.
O impacto no mercado provou ser central para a decisão. O tribunal considerou tanto o mercado existente de pesquisa jurídica quanto um mercado potencial para dados de treinamento de IA em risco devido às ações da Ross. A decisão colocou o ônus da prova sobre a Ross para mostrar que tais mercados não seriam afetados - um detalhe que pode influenciar casos futuros.
![]() |
Debate sobre uso justo de dados no treinamento de IA ganha novo capítulo com decisão judicial nos EUA. (Imagem: Reprodução/Canva) |
Distinção entre IA não-generativa e generativa
É importante notar que o tribunal explicitamente declarou que esta decisão se aplica apenas à IA não-generativa. Diferentemente dos modelos de linguagem que aprendem com conteúdo existente para gerar novo material, o sistema da Ross competia diretamente ao fornecer o mesmo serviço que a Thomson Reuters - retornando decisões judiciais existentes.
Esta distinção alinha-se com o argumento de uso justo da OpenAI e outros laboratórios de IA: seus dados de treinamento são usados para desenvolver habilidades gerais de linguagem (ou codificação, música, arte, etc.), não para reproduzir ou competir com o conteúdo original. Além disso, os dados de treinamento são apenas "visualizados" pelo sistema de IA durante o treinamento, não copiados no modelo final.
No entanto, os dados devem ser armazenados, pelo menos temporariamente, para que o processo de treinamento funcione. Este é um ponto que provavelmente será debatido em futuros casos envolvendo IA generativa.
Perspectivas para futuros litígios
Os tribunais parecem estar adotando uma abordagem caso a caso para questões de direitos autorais relacionadas à IA. Não se espera uma decisão única e definitiva sobre o uso justo para dados de treinamento de IA generativa em um futuro próximo. Em vez disso, diferentes precedentes provavelmente surgirão à medida que os tribunais lidam com vários sistemas de IA e seus contextos únicos.
O caso Ross foi relativamente simples: um banco de dados jurídico competindo diretamente com outro. Mas casos futuros levantam questões mais sutis: Um chatbot realmente compete com um site de notícias? Um gerador de música por IA realmente compete com músicos humanos? Quando o conteúdo gerado por IA se torna um substituto para o trabalho original?
Estas questões são muito mais complexas do que o caso Ross e provavelmente exigirão uma consideração cuidadosa por parte dos tribunais. Um processo recente movido pelos sites de notícias Raw Story e AlterNet contra a OpenAI ilustra essa complexidade. O juiz rejeitou o caso, aceitando a defesa de uso justo da OpenAI de que o ChatGPT cria novo conteúdo em vez de copiar artigos diretamente, e que os fatos em si não são protegidos por direitos autorais.