11 de novembro de 2025
compartilhe
Getty Images vs. Stability AI: tribunal britânico afirma que um modelo de inteligência artificial generativa não é, por si só, uma cópia infratora
No dia 4 de novembro de 2025, a Alta Corte de Justiça da Inglaterra e País de Gales, na Divisão de Propriedade Intelectual (ChD), decidiu que um modelo de inteligência artificial (IA) generativa não constitui, por si só, uma cópia infratora das obras utilizadas em seu treinamento, ainda que esse processo envolva o uso de material protegido por direitos autorais. Ao julgar o caso, a juíza Joanna Smith DBE rejeitou a alegação de violação secundária de direitos autorais, concluindo que um modelo de IA que não armazena nem reproduz as obras originais não pode ser considerado uma cópia ilegal.
O litígio teve início quando a Getty Images, um banco global de imagens, processou a Stability AI, desenvolvedora do sistema de inteligência artificial Stable Diffusion, alegando o uso indevido de milhões de suas fotografias para o treinamento do modelo, sem autorização. A Getty Images acionou a Stability AI em diversas jurisdições, como nos Estados Unidos e no Reino Unido, mas a decisão do tribunal britânico foi a primeira proferida sobre o caso.
O julgamento no Reino Unido abordou menos questões do que se esperava, uma vez que a Getty Images abandonou algumas das alegações iniciais, entre elas: a violação de direitos autorais durante o treinamento e o desenvolvimento da IA, tendo reconhecido que o processo ocorreu fora do Reino Unido; a violação de direitos autorais na fase de geração de imagens (output); e a violação de direitos relativos ao banco de dados.
Assim, a disputa concentrou-se, entre outras, em duas questões principais: (i) a suposta violação de marca registrada e (ii) a alegada violação secundária de direitos autorais, que discutia se o próprio modelo de IA poderia ser considerado uma cópia ilegal.
Em suas considerações finais sobre o julgamento, a juíza Joanna Smith afirmou que, embora a Getty Images tenha obtido êxito parcial em sua alegação de violação de marca, suas conclusões são históricas e extremamente limitadas em seu escopo. No tocante à alegação de violação secundária de direitos autorais, a magistrada concluiu que ela não procede.
No que concerne à alegação de violação de direitos de marca, a autora argumentou que o uso do modelo Stable Diffusion por usuários no Reino Unido gerava imagens sintéticas que reproduziam suas marcas d’água, o que configuraria violação de marca registrada. Em resposta, a parte ré negou qualquer responsabilidade, alegando que eventuais marcas d’água nos resultados eram consequência da ação dos usuários, que controlavam as instruções de geração por meio dos prompts. A empresa também buscou demonstrar que este problema era historicamente ligado a versões antigas da IA, e que não havia evidência de que os modelos mais novos gerassem tais marcas.
Em sua análise, a Corte reconheceu que as versões mais recentes do modelo de IA não apresentaram o problema da marca d’água, mas afastou a tese de que a Stability AI não exerce controle sobre os outputs, reconhecendo que, embora os usuários tenham algum controle, esse controle é apenas parcial, já que o conteúdo gerado depende diretamente dos dados de treinamento estabelecidos pela empresa. Assim, a juíza concluiu que a ré foi somente responsável pela geração não intencional de marcas d’água em versões antigas do modelo de IA, configurando violação das seções 10(1) e 10(2) do Trade Marks Act, lei de marcas do Reino Unido.
Quanto à alegação de violação secundária de direitos autorais, a Getty Images focou no processo de treinamento do modelo de IA da ré, defendendo que este só foi possível porque envolveu a reprodução prévia de obras protegidas por direitos autorais. Sua tese baseia-se na seção 27(3) do Copyright, Designs and Patents Act (CDPA), norma que regula os direitos autorais no Reino Unido. A lei estabelece que um objeto — chamado de “artigo” (article) —, mesmo que criado fora do Reino Unido e posteriormente importado, pode ser classificado como “cópia ilegal” se o método de sua fabricação configurar uma violação direta aos direitos autorais.
Com base nesses argumentos, a autora sustentou que o Stable Diffusion, embora intangível, se enquadra na definição de “artigo”, e que, mesmo sem armazenar as imagens infringidas, o modelo é o produto resultante de um processo infrator. Portanto, ao importar, possuir ou distribuir o modelo no país, a Stability AI estaria cometendo violação secundária de direitos autorais.
A ré, por sua vez, afirmou que o termo “artigo”, previsto na legislação britânica, refere-se apenas a objetos físicos, não sendo aplicável a um modelo de inteligência artificial, que é intangível. Além disso, defendeu que, mesmo que o modelo fosse considerado um “artigo”, ele não poderia ser classificado como uma cópia ilegal, pois não contém nem armazena reproduções das imagens usadas no treinamento. Assim, argumentou que o Stable Diffusion é apenas o resultado do aprendizado do sistema, e não uma reprodução direta das obras protegidas, razão pela qual não violaria direitos autorais.
A juíza aceitou o entendimento de que um modelo digital pode ser considerado um “artigo” para fins legais. Contudo, estabeleceu um critério decisivo: para ser considerado uma “cópia infratora”, o artigo deve conter efetivamente uma cópia da obra protegida. Como o Stable Diffusion apenas aprende padrões e não armazena nem reproduz as imagens originais, concluiu-se que o modelo não constitui uma cópia ilegal, refutando a alegação de violação secundária de DA.
Por fim, a decisão representou uma vitória parcial para a Getty Images, restrita à infração de marca registrada nas versões antigas do modelo, e uma vitória substancial para a Stability AI no tocante aos direitos autorais. Além disso, o julgamento cria um precedente importante ao afirmar que, segundo a legislação britânica vigente, um modelo de IA não é uma cópia infratora das obras utilizadas em seu treinamento. A decisão é passível de recurso.
A Decisão pode ser acessada por meio do link: Getty Images (US) Inc & Ors v Stability AI Ltd (Rev1) [2025] EWHC 2863 (Ch) (04 November 2025)
