Fabio Lauria

Frankenstein criativo: a batalha jurídica entre a IA e os direitos de autor

4 de agosto de 2025
Partilhar nas redes sociais

📧 **Atualização do artigo do boletim informativo**
*Este artigo foi originalmente publicado no nosso boletim informativo semanal e foi posteriormente atualizado com os desenvolvimentos em 2025, incluindo os julgamentos de referência Bartz v. Anthropic, Kadrey v. Meta, Disney v. Midjourney e Thomson Reuters v. Ross Intelligence.*

**Última atualização:** [julho de 2025].

A intersecção entre a inteligência artificial e a lei dos direitos de autor tornou-se um dos campos mais complexos e em rápida evolução no panorama jurídico moderno. O ano de 2025 marcou um ponto de viragem histórico com as primeiras decisões substantivas que estão a redefinir a forma como os conteúdos gerados por IA são tratados do ponto de vista dos direitos de autor.

Os acórdãos históricos de 2025: uma jurisprudência fragmentada

O precedente devastador: Thomson Reuters v. Ross Intelligence

O dia 11 de fevereiro de 2025 marcou um ponto de viragem no direito da IA, quando o juiz Stephanos Bibas proferiu a primeira decisão que rejeita categoricamente a defesa da utilização justa na formação em IA.

No processo Thomson Reuters Enterprise Centre GmbH contra Ross Intelligence Inc., o tribunal decidiu, por uma questão de direito, que a utilização de notas de rodapé protegidas por direitos de autor para treinar um sistema de IA não constitui uma utilização justa.

O cerne da decisão: a Ross Intelligence tinha utilizado as notas de rodapé da Westlaw (resumos jurídicos de propriedade da Thomson Reuters) para treinar o seu próprio motor de pesquisa de IA concorrente. O tribunal sublinhou que a Ross estava a criar um "substituto de mercado" direto para a Westlaw, o que pesa decisivamente contra a utilização justa.

Como escreveu o juiz Bibas: "O público não tem direito à análise jurídica da Thomson Reuters. Os direitos de autor incentivam as pessoas a desenvolver coisas que ajudam a sociedade, como boas ferramentas de investigação jurídica".

As sentenças gémeas de junho de 2025: um paradoxo jurídico

Com apenas dois dias de intervalo, em junho de 2025, dois tribunais federais da Califórnia emitiram decisões aparentemente contraditórias que abalaram a indústria da IA.

Bartz v. Anthropic (23 de junho de 2025): O juiz William Alsup decidiu que a formação de Claude sobre livros adquiridos legalmente constituía uma utilização justa, chamando ao processo "espetacularmente transformador". No entanto, condenou a Anthropic por ter descarregado mais de 7 milhões de livros de sítios piratas, como o LibGen e o Pirate Library Mirror, determinando que esta aquisição ilegal não está protegida pela utilização justa. A decisão estabelece uma distinção crucial: a formação pode ser uma utilização justa, mas apenas quando os materiais são obtidos legalmente.

Kadrey v. Meta (25 de junho de 2025): O juiz Vince Chhabria decidiu que a formação de livros de autores pela LLaMA constituía uma utilização justa, mas por razões diferentes das do processo Anthropic. Os autores (incluindo Sarah Silverman e Ta-Nehisi Coates) não conseguiram provar que a IA da Meta estava realmente a substituir as suas obras no mercado ou a causar danos económicos concretos. Na sua decisão, o Juiz Chhabria criticou implicitamente a ênfase dada pelo Juiz Alsup à natureza "transformadora" da IA, salientando, em vez disso, que o fator crucial deveria ser a prova de um prejuízo económico real.

Hollywood entra na batalha: Disney e Universal contra Midjourney

junho de 2025 também viu a entrada de gigantes de Hollywood na guerra legal de direitos autorais de IA. A Disney e a Universal instauraram um processo contra a Midjourney, marcando a primeira vez que as majors de Hollywood processaram uma empresa de IA por violação de direitos de autor.

O peso dos gigantes: O processo de 110 páginas acusa a Midjourney de roubar "inúmeras" obras protegidas por direitos de autor para treinar o seu software, incluindo personagens icónicas como Darth Vader, Homer Simpson e Shrek. Segundo a TIME, a importância deste caso reside na dimensão, influência e recursos da Disney e da Universal: "Quanto mais estes pilares da economia americana entram na luta, mais difícil se torna ignorar a verdade simples".

A "máquina de distribuição virtual": A ação judicial descreve a Midjourney como uma "máquina de distribuição virtual que gera cópias intermináveis e não autorizadas" das obras da Disney e da Universal. Com mais de 20 milhões de utilizadores registados e 300 milhões de dólares em receitas até 2024, a Midjourney representa um dos maiores geradores de imagens de IA do mundo.

Andersen versus IA de estabilidade: a evolução continua

O grupo de artistas liderado por Sarah Andersen continuou a obter vitórias significativas quando o juiz William Orrick permitiu que as suas acusações de violação de direitos de autor prosseguissem contra empresas como a Stability AI e a Midjourney. Os artistas alegaram que estas empresas tinham armazenado ilegalmente cópias das suas obras de arte em conjuntos de dados de treino sem consentimento ou compensação.

A contradição fundamental: este caso põe em evidência o paradoxo inerente à IA generativa: os modelos são concebidos para imitar a criatividade humana, mas só o podem fazer consumindo obras humanas.

A abordagem ética da Adobe: Licenciamento vs. Utilização justa

Enquanto outros gigantes da tecnologia enfrentam processos judiciais por violação de direitos de autor, a Adobe tentou posicionar-se como a alternativa "ética" com a sua IA Firefly. A Adobe construiu a sua estratégia de marketing e a diferenciação do produto em torno do conceito de "IA comercialmente segura", treinada principalmente em imagens licenciadas pelo Adobe Stock e em conteúdos do domínio público.

A promessa da ética: A Adobe diferenciou o Firefly de concorrentes como o Midjourney e o DALL-E ao sublinhar que o seu modelo é treinado apenas em conteúdo licenciado, evitando a controversa recolha de dados da Internet. A empresa também implementou tecnologias como as Credenciais de conteúdo para permitir que os criadores adicionem uma etiqueta "Não treinar" ao seu trabalho.

Realidade complexa: No entanto, revelações da Bloomberg em abril de 2024 mostraram que cerca de 5% do conjunto de dados de treino do Firefly incluía imagens geradas por IA concorrentes, incluindo a Midjourney. No Adobe Stock, 57 milhões de imagens são explicitamente rotuladas como geradas por IA, o que representa 14% do total da base de dados.

Defesa da Adobe: A Adobe respondeu que todas as imagens no Adobe Stock, incluindo as geradas por IA, passam por um "rigoroso processo de moderação" para garantir que não incluem propriedade intelectual, marcas ou personagens reconhecíveis. A empresa argumenta que esta abordagem continua a ser mais ética do que a dos concorrentes que utilizam dados completamente não licenciados.

A vantagem para o utilizador final: a abordagem da Adobe resulta na possibilidade de utilizar conteúdos gerados pelo Firefly com menor exposição a riscos legais ou violação de direitos de autor. Mesmo num contexto em que surgem contradições e zonas cinzentas, o compromisso da Adobe com a transparência, a moderação dos conteúdos e o respeito pelos direitos dos artistas é uma mais-valia.

A fragmentação jurisprudencial de 2025

2025 revelou uma jurisprudência profundamente dividida que reflecte a complexidade inerente à aplicação das leis do século XX às tecnologias do século XXI.

O paradigma da aquisição legal: Todos os acórdãos concordam com um princípio fundamental: a distinção entre aquisição legal e ilegal de materiais de formação. Mesmo quando a utilização subsequente pode ser uma utilização justa, o descarregamento de material pirateado continua a ser ilegal e pode resultar em responsabilidade separada.

A batalha do quarto fator: As decisões identificaram o quarto fator da utilização justa (impacto no mercado) como o novo campo de batalha legal. Enquanto a Thomson Reuters ganhou ao demonstrar uma clara substituição no mercado, os casos Bartz e Kadrey não conseguiram demonstrar um prejuízo económico concreto.

O problema da probatio diabolica: surge um paradoxo processual: como podem os autores provar os danos de mercado causados pelos sistemas de IA quando o impacto é generalizado e difícil de quantificar? Estamos a assistir à emergência de um sistema em que a proteção depende da capacidade de provar matematicamente o que é muitas vezes intuitivamente óbvio.

Actores que enfrentam o abismo digital

A crise dos direitos de autor na era da IA afecta particularmente o mundo da representação, onde a própria identidade do intérprete está no centro da profissão. A possibilidade de clonagem de semelhanças, vozes e estilos de representação está a transformar rapidamente o conceito de "representação" de um ato criativo único num modelo potencialmente replicável.

A dissolução da interpretação: quando um ator pode ser recriado digitalmente, o que resta da arte da interpretação? Os estúdios já demonstraram a capacidade de "ressuscitar" actores falecidos e de manipular digitalmente as interpretações existentes. A questão fundamental não é tanto se isto é tecnicamente possível, mas se preserva a essência do que torna uma atuação significativa.

O precedente de "Here": O filme "Here", em que foram utilizadas recriações digitais completas de Tom Hanks e Robin Wright para os papéis principais, representa um modelo de utilização autorizada. A produção obteve um consentimento explícito e pagou os direitos aos actores envolvidos, criando assim um precedente comercial de utilização consensual. Isto mostra que o problema não é necessariamente a tecnologia em si, mas o consentimento e a compensação dos artistas cujo trabalho e imagem estão a ser utilizados.

Agenda da Disney para as réplicas digitais: É significativo que a Disney esteja também entre os apoiantes da Lei NO FAKES, a proposta de lei federal para proteger os actores de voz e imagem de réplicas de IA não autorizadas. Isto revela uma estratégia coordenada: proteger os actores de réplicas digitais não autorizadas e, ao mesmo tempo, combater a utilização não autorizada da propriedade intelectual existente.

O paradoxo do valor inverso: Surgiu um fenómeno económico peculiar: os actores mais famosos e com carreiras estabelecidas (logo, com amplo material disponível para treino de IA) são, paradoxalmente, os mais vulneráveis à substituição algorítmica. O seu próprio sucesso torna-os alvos fáceis de clonagem não autorizada, invertendo a tradicional curva de valor da carreira artística.

A Europa como contrapeso regulamentar: o AI Act em ação

Enquanto os EUA navegam no labirinto da utilização justa, a Europa optou por uma abordagem radicalmente diferente com a Lei da IA, que entrou em vigor em agosto de 2024 e está agora a ser ativamente implementada.

A revolução da transparência obrigatória: ALei da IA exige que os fornecedores de modelos gerais de IA tornem público um "resumo suficientemente pormenorizado" dos dados utilizados para a formação, incluindo material protegido por direitos de autor. Em janeiro de 2025, a Comissão Europeia publicou um modelo para ajudar os fornecedores a preparar o resumo exigido.

Os pilares da Lei da IA:

  • Transparência: as empresas devem divulgar as fontes dos seus dados de formação
  • Respeito pelos direitos de autor: Obrigação de respeitar a legislação comunitária em matéria de direitos de autor, independentemente do local onde se realiza a formação
  • Opt-out: Respeito pelas preferências dos titulares de direitos que manifestam a sua recusa

O efeito extraterritorial: A Lei da IA aplica-se a qualquer vendedor que coloque um modelo de IA no mercado da UE, "independentemente da jurisdição em que ocorram os actos relevantes para os direitos de autor". Este facto cria potenciais conflitos com a jurisprudência dos EUA em matéria de utilização leal.

O novo relatório do Gabinete de Direitos de Autor dos EUA (2025)

Em janeiro de 2025, oGabinete de Direitos de Autor dos EUA publicou a Parte 2 do seu relatório sobre IA, fornecendo esclarecimentos cruciais sobre a proteção de obras geradas por IA.

Os princípios fundamentais confirmados:

  • Apenas as obras com elementos expressivos determinados por um autor humano podem ser protegidas por direitos de autor
  • O simples facto de fornecer instruções não é suficiente para a proteção dos direitos de autor
  • A assistência da IA na criação não impede automaticamente a proteção
  • As obras totalmente geradas por IA não podem ser protegidas por direitos de autor

O Mito da Originalidade Revisitado: O relatório confirma o carácter artificial do conceito de "originalidade" na legislação moderna sobre direitos de autor. O que distingue realmente um artista que seleciona entre milhares de resultados de IA de um programador que seleciona entre milhares de algoritmos? A distinção legal parece mais ideológica do que prática, mas continua a ser crucial para determinar o que pode ser objeto de direitos de autor.

Perspectivas internacionais: Divergência global

China: Um tribunal de Pequim reconheceu a proteção dos direitos de autor para uma imagem gerada por IA em novembro de 2023, desde que demonstre originalidade e reflicta o esforço intelectual humano. Este facto contrasta com a abordagem mais restritiva dos EUA.

República Checa: Em 2024, um tribunal checo emitiu a primeira decisão europeia sobre direitos de autor gerados por IA, recusando a proteção de uma imagem criada através de prompts, alinhando com a posição do Gabinete de Direitos de Autor dos EUA.

Hipocrisia legislativa global: É interessante notar que os sistemas jurídicos ocidentais se recusam a conceder direitos a obras geradas por IA, ao mesmo tempo que permitem que as obras humanas sejam "devoradas" por esses mesmos sistemas. Estamos a assistir a uma duplicidade de critérios: as obras humanas são consideradas sagradas quando criadas, mas dispensáveis quando consumidas pela IA.

O debate sobre a utilização justa: a nova fronteira

As empresas de IA recorrem cada vez mais ao argumento da "utilização transformadora", mas os acórdãos de 2025 mostraram os limites desta estratégia.

A ilusão da transformação: O argumento da "utilização transformadora" está a revelar-se uma ficção jurídica conveniente quando aplicado à escala industrial. A verdade é que as IA não "transformam" as obras, mas digerem-nas e reciclam-nas. Os juízes começam a compreender esta distinção - como demonstrado no caso Thomson Reuters - quando a utilização comercial é óbvia e direta, mas continuam a ter dificuldade em articular a razão pela qual a aprendizagem humana de obras protegidas é aceitável e a aprendizagem artificial não.

Os novos factores decisivos:

  1. Aquisição legal ou ilegal de materiais de formação
  2. Substituição direta do mercado vs. criação de novos mercados
  3. Provas concretas de prejuízos económicos vs. prejuízos teóricos

Riscos de responsabilidade para utilizadores finais e programadores

O processo Andersen determinou que os utilizadores finais podiam ser responsabilizados se os resultados da IA se assemelhassem demasiado aos dados de treino, mas os acórdãos de 2025 vieram complicar ainda mais este cenário.

The Impossible Burden of Knowledge Updated: Como pode um utilizador final conhecer o conteúdo de conjuntos de dados de formação que contêm milhares de milhões de imagens, especialmente quando o AI Act exige agora transparência, mas os fornecedores dos EUA podem não cumprir? Estamos a criar um sistema em que o utilizador médio corre o risco de ser penalizado por violações que não pode prever nem evitar, num ambiente regulamentar transfronteiriço inconsistente.

P.S. - O Paradoxo de Frankenstein Atualizado: Tal como no caso do Dr. Frankenstein - que é o criador e não a criatura, um erro comum entre aqueles que não leram a obra de Mary Shelley - encontramo-nos num paradoxo amplificado: o utilizador que utiliza a IA é tratado como o "monstro" responsável pelas violações, enquanto os verdadeiros "doutores" que criaram e treinaram estes sistemas com os dados de outras pessoas escapam frequentemente às consequências legais. Os acórdãos de 2025 mostram que, mesmo quando as empresas são responsabilizadas, muitas vezes é apenas pelos aspectos mais flagrantes (como a pirataria do Anthropic), e não pela utilização sistemática de material protegido. Mais uma demonstração de como a superficialidade cultural também se reflecte na nossa interpretação da responsabilidade na era digital.

Implicações para a indústria e direcções futuras

Os casos de 2025 aceleraram a procura de conjuntos de dados de formação licenciados. As principais empresas de comunicação social estão agora a negociar acordos de partilha de receitas que espelham o modelo ASCAP/BMI da indústria musical.

A Heterogénese dos Fins Confirmada: Paradoxalmente, as acções judiciais intentadas para proteger os criadores individuais estão a favorecer as grandes empresas estruturadas que podem pagar acordos de licenciamento complexos. Os acórdãos de 2025 mostraram que a capacidade de provar danos económicos concretos - muitas vezes para além dos meios dos criadores individuais - se tornou crucial para o sucesso legal. No entanto, a entrada da Disney e da Universal altera a dinâmica: estes gigantes dispõem dos recursos necessários para sustentar longas batalhas jurídicas e da influência necessária para atrair a atenção dos meios de comunicação social e dos políticos.

O mercado de licenciamento em expansão: a Thomson Reuters, a Getty Images e outros grandes detentores de conteúdos estão agora a rentabilizar ativamente os seus arquivos como dados de formação, criando um novo mercado que poderá excluir criadores independentes de menor dimensão. A entrada da Disney e da Universal é suscetível de acelerar esta tendência, sendo provável que a indústria cinematográfica "acelere efetivamente a sua utilização de modelos de IA baseados em conteúdos licenciados" assim que obtiver clareza jurídica.

A lição da Adobe: O caso da Adobe demonstra que mesmo as abordagens aparentemente mais éticas podem ter falhas. No entanto, representa uma tentativa genuína de encontrar um equilíbrio entre a inovação da IA e o respeito pelos direitos dos criadores. Como a Adobe declarou: "O nosso objetivo é criar uma IA generativa que permita aos criadores rentabilizar os seus talentos" - um princípio que contrasta fortemente com a abordagem "tirar primeiro, perguntar depois" de muitos concorrentes.

O modelo Adobe vs. Concorrentes: Enquanto empresas como a Anthropic e a Meta se defendem em tribunal pela utilização de conteúdos pirateados, a Adobe tentou, pelo menos, criar um quadro de licenciamento. Esta abordagem, embora imperfeita, pode servir de modelo para futuros regulamentos que exijam transparência e compensação para os criadores.

Conclusão: Navegar na incerteza pós-2025

O futuro da criatividade humana na era pós-2025 As actuais batalhas jurídicas não se prendem apenas com a propriedade intelectual, mas com o próprio significado da criatividade humana na era da IA. Os acórdãos de 2025 tentaram preservar uma distinção cada vez mais artificial entre criatividade humana e artificial, mas também revelaram os limites práticos desta abordagem.

A fragmentação como o novo normal: Em vez de clareza, 2025 produziu uma manta de retalhos de decisões jurisprudenciais que reflectem abordagens fundamentalmente diferentes. A convergência em alguns princípios (ilegalidade da pirataria, importância do impacto no mercado) coexiste com divergências profundas em questões fundamentais.

O verdadeiro problema emergente: Os acórdãos de 2025 mostraram que a questão já não é se a IA pode infringir os direitos de autor, mas se os sistemas jurídicos nacionais podem desenvolver quadros coerentes com rapidez suficiente para governar uma tecnologia em evolução exponencial. A lei europeia sobre a IA e a jurisprudência americana estão a criar normas incompatíveis que podem fragmentar o mercado global da IA. A entrada da Disney - com o seu poder de lobbying e influência política - poderá ser o catalisador de uma legislação federal americana mais definitiva.

A lição da Disney: Como observou um especialista do sector sobre o caso Disney-Universal: "Não se trata de Hollywood a tentar desligar a IA generativa. O que está em causa é a compensação". Esta distinção é crucial: não se trata de parar a inovação, mas de garantir que os criadores são compensados pelo seu trabalho.

Modelos contrastantes: 2025 destacou três abordagens fundamentalmente diferentes: por um lado, temos a Disney a recorrer ao tribunal para proteger a propriedade intelectual de elevado valor e a Adobe a tentar construir um ecossistema ético (embora imperfeito); por outro lado, as empresas a preferirem arriscar processos judiciais em vez de restringirem o acesso aos dados; por último, a Europa a impor a transparência obrigatória através do AI Act. Este contraste irá provavelmente definir o futuro da regulamentação da IA.

Ao tentarmos aplicar as leis do século XX às tecnologias do século XXI, podemos dar por nós a defender um sistema que não só já não protege os interesses que diz proteger, como impede ativamente o aparecimento de novas formas de expressão criativa que não se enquadram facilmente nas categorias existentes. O ano de 2025 mostrou que o caminho para a coexistência da criatividade humana e artificial será muito mais complexo e contraditório do que inicialmente previsto.

Nota: Este artigo atualizado reflecte os desenvolvimentos significativos no domínio dos direitos de autor da IA em 2025, incluindo os primeiros acórdãos substantivos e a aplicação da Lei Europeia da IA. Para mais actualizações sobre processos pendentes, ver o lista completa de processos de direitos de autor no domínio da IA da BakerHostetler. O panorama jurídico continua a evoluir rapidamente, exigindo um acompanhamento constante dos desenvolvimentos regulamentares e jurisprudenciais.

Recursos adicionais:

Fabio Lauria

CEO e fundador | Electe

Diretor Executivo da Electe, ajudo as PME a tomar decisões baseadas em dados. Escrevo sobre inteligência artificial no mundo dos negócios.

Mais populares
Inscreva-se para receber as últimas notícias

Receba notícias e informações semanais na sua caixa de correio eletrónico
. Não perca!

Obrigado! Seu envio foi recebido!
Ops! Algo deu errado ao enviar o formulário.