Criatividade humana vs. artificial: onde reside a diferença (e porque é que o estilo Ghibli nos ensina alguma coisa)
O debate sobre inteligência artificial e direitos de autor intensificou-se dramaticamente em 2024-2025. Já não se trata de discussões teóricas: o The New York Times processou a OpenAI por violação de direitos de autor (dezembro de 2023), a Getty Images processou a Stability AI e milhares de artistas intentaram acções colectivas. As empresas de IA respondem que os seus sistemas "aprendem" tal como os humanos - mas será mesmo assim?
A criatividade humana sempre se desenvolveu através de ligações: Shakespeare inspirou-se em crónicas históricas e contos populares, Van Gogh estudou gravuras japonesas, os Beatles começaram por tocar rock americano. Os artistas reinterpretam sempre obras anteriores. A inteligência artificial, dizem as empresas de tecnologia, faz a mesma coisa. Mas o caso do "estilo Ghibli" revela quão simplista é esta narrativa.
Escreva "estilo Ghibli" em Midjourney ou DALL-E e obterá imagens muito semelhantes às obras-primas de Hayao Miyazaki: cores pastel, nuvens fofas, paisagens de sonho, personagens com olhos grandes. É tecnicamente impressionante. Mas também é profundamente problemático.
O Studio Ghibli levou décadas a desenvolver essa estética distintiva: escolhas precisas de paleta de cores, técnicas de animação tradicionais e uma filosofia artística enraizada na cultura japonesa e na visão pessoal de Miyazaki. Quando um modelo de IA reproduz esse "estilo" em segundos, estará realmente a "aprender" como Miyazaki aprendeu com a animação da Disney e a manga japonesa? Ou estará simplesmente a recombinar padrões visuais extraídos de milhares de fotogramas Ghibli sem autorização?
A diferença não é filosófica - é jurídica e económica. De acordo com uma análise de Stanford publicada no arXiv (Carlini et al., 2023), os modelos de difusão como o Stable Diffusion podem regenerar imagens quase idênticas a partir do conjunto de treino em cerca de 3% dos casos, quando solicitados com instruções específicas. Não se trata de "inspiração", mas sim de armazenamento e reprodução.
O artista digital polaco Greg Rutkowski descobriu que o seu nome aparecia em 1,2 milhões de prompts no Stable Diffusion, tornando-se involuntariamente um dos "estilos" mais solicitados, sem nunca dar o seu consentimento ou receber qualquer compensação. Como disse à MIT Technology Review, "não me sinto lisonjeado. Sinto-me como se algo que construí durante anos me tivesse sido roubado.
A escala do treino de IA atingiu proporções sem precedentes. O LAION-5B, um dos conjuntos de dados mais utilizados para modelos de imagem, contém 5,85 mil milhões de pares imagem-texto recolhidos da Internet, incluindo obras protegidas por direitos de autor. O GPT-4 foi treinado em grandes porções da Internet, incluindo artigos pagos, livros e código de software proprietário.
Acções judiciais importantes em curso:
As empresas de IA defendem esta prática invocando a "utilização justa" ao abrigo da legislação dos EUA: argumentam que a formação é "transformadora" e não substitui o mercado original. Mas vários tribunais estão a contestar esta interpretação.
A juíza Katherine Forrest, no processo Getty v. Stability AI, negou a moção de indeferimento em janeiro de 2024, permitindo que o processo prosseguisse: "A questão de saber se o treino de modelos de IA constitui uma utilização justa é complexa e exige um exame minucioso dos factos. Tradução: as empresas de IA não podem simplesmente invocar o uso justo e pronto.
Perante a pressão jurídica, as empresas de IA começaram a negociar licenças. A OpenAI celebrou acordos com:
A Google assinou acordos semelhantes com o Reddit, o Stack Overflow e várias editoras. A Anthropic negociou com editoras a utilização de livros.
Mas estes acordos só abrangem as grandes editoras com poder de negociação. Milhões de criadores individuais - artistas, fotógrafos, escritores freelance - continuam a não ser compensados por trabalhos utilizados em formações já concluídas.
A narrativa "a IA aprende como os humanos" é tecnicamente enganadora. Vejamos as diferenças fundamentais:
Escala e velocidade: Um artista humano estuda talvez centenas ou milhares de obras durante a sua vida. O GPT-4 foi treinado em triliões de palavras. A Difusão Estável em biliões de imagens. A escala é incomparável e excede qualquer definição razoável de "inspiração".
Compreensão semântica: Quando Van Gogh estudou as gravuras japonesas, não copiou mecanicamente os padrões visuais - compreendeu os princípios estéticos subjacentes (utilização do espaço negativo, composição assimétrica, ênfase na natureza) e reinterpretou-os através da sua visão pós-impressionista europeia. As suas obras são sínteses culturais conscientes.
Os modelos de IA não "compreendem" no sentido humano. Como explica Melanie Mitchell, professora do Instituto de Santa Fé, no seu "Artificial Intelligence: A Guide for Thinking Humans": "Os sistemas de aprendizagem profunda são excelentes no reconhecimento de padrões, mas não têm compreensão causal, raciocínio abstrato ou modelos mentais do mundo. A difusão estável não "compreende" o que torna o Ghibli distinto - extrai correlações estatísticas entre milhões de pixéis rotulados como "estilo Ghibli".
Intencionalidade criativa: Os artistas humanos fazem escolhas criativas intencionais com base na sua visão pessoal, na mensagem que querem comunicar, nas emoções que querem evocar. Miyazaki incorpora temas ambientalistas, pacifismo e feminismo nos seus filmes - escolhas morais e artísticas conscientes.
A IA gera com base em probabilidades estatísticas: "dado o pedido X e o conjunto de treino Y, qual é a configuração de píxeis mais provável?" Não há intencionalidade, não há mensagem, não há visão. Como Ted Chiang escreveu no The New Yorker: "O ChatGPT é um jpeg desfocado da Web" - uma compressão com perdas que perde exatamente as qualidades que tornam o conteúdo original valioso.
Transformação vs. recombinação: Pablo Picasso estudou as máscaras africanas mas criou o cubismo - um movimento artístico totalmente novo que reinventou a representação espacial na pintura. A transformação foi radical e original.
Os modelos de IA generativa funcionam por interpolação no espaço latente: recombinam elementos do conjunto de treino em novas configurações, mas permanecem vinculados à distribuição estatística dos dados com que foram treinados. Não podem inventar uma estética genuinamente nova que viole as regularidades estatísticas aprendidas. Tal como demonstrado pela investigação do MIT (Shumailov et al., 2023), os modelos treinados repetidamente em resultados anteriores de IA degeneram progressivamente - fenómeno designado por "colapso do modelo".
Eis o paradoxo central: a IA pode gerar resultados que parecem originais (nenhum ser humano viu antes aquela imagem específica do estilo Ghibli) mas são estatisticamente derivados (são interpolações de padrões existentes). Trata-se de uma forma superficial de originalidade sem inovação fundamental.
Este facto tem implicações profundas. Tal como o filósofo John Searle defendeu no seu famoso "argumento da sala chinesa": simular um processo cognitivo não é o mesmo que o possuir. A IA pode simular a criatividade sem ser criativa no sentido humano do termo.
Perante a controvérsia, estão a ser desenvolvidas várias soluções:
Ferramentas de proteção para artistas:
Registos de auto-exclusão:
Quadro de compensação:
Regulamentos governamentais:
ALei da IA da UE (que entrou em vigor em agosto de 2024) exige que os fornecedores de modelos de IA generativa publiquem resumos pormenorizados dos dados de formação protegidos por direitos de autor utilizados. É a primeira tentativa regulamentar de impor transparência.
A Lei ELVIS do Tennessee (março de 2024) protege especificamente os artistas de voz e imagem contra a utilização não autorizada nos primeiros estados dos EUA em que a IA é utilizada, com legislação específica para falsificações de voz profunda e visuais.
As propostas apresentadas ao Congresso dos EUA incluem pedidos de inclusão explícita de obras protegidas por direitos de autor (em vez de exclusão) e a criação de registos públicos de conjuntos de dados de formação.
Duas visões do futuro confrontam-se:
Visão otimista (empresas de IA): a IA é uma ferramenta que amplifica a criatividade humana, como o Photoshop ou os sintetizadores de música. Os artistas utilizarão a IA para acelerar os fluxos de trabalho, explorar variações e ultrapassar bloqueios criativos. Surgirão formas de arte híbridas em que os humanos orientam a visão e a IA executa as partes técnicas.
Já existem exemplos concretos: o filme "The Frost" (2023) utilizou a IA para gerar fundos e texturas, com artistas humanos a orientar a direção artística. Os músicos utilizam o Suno e o Udio para gerar faixas de apoio para improvisar. Os escritores utilizam o GPT como um "pato de borracha" para discutir ideias narrativas.
Visão pessimista (muitos criadores): A IA irá mercantilizar a criatividade, corroendo o valor económico do trabalho criativo até que apenas as elites com competências excepcionais sobrevivam. A "criatividade média" será substituída por geradores baratos, destruindo a classe média criativa - tal como a automação industrial eliminou os artesãos no século XIX.
As evidências preliminares apoiam esta preocupação: em plataformas freelance como o Fiverr, os pedidos de ilustradores e redactores caíram 21% em 2023 (dados do Fiverr Q4 2023), enquanto as ofertas de "geração de arte com IA" explodiram. Greg Rutkowski viu as comissões diretas caírem 40% desde que o seu estilo se tornou popular na Stable Diffusion.
A verdade provavelmente situa-se algures no meio: algumas formas de trabalho criativo serão automatizadas (ilustrações genéricas de stock, marketing de cópia básico), enquanto a criatividade altamente original, concetual e culturalmente enraizada continuará a ser do domínio humano.
A distinção entre conteúdos humanos e de IA tornar-se-á cada vez mais difícil. Já hoje, sem marcas de água ou divulgação, é muitas vezes impossível distinguir texto GPT-4 de texto humano, ou imagens Midjourney de fotografias. Quando o Sora (gerador de vídeo OpenAI) se tornar público, a distinção estender-se-á ao vídeo.
Isto levanta questões profundas sobre a autenticidade. Se uma imagem ao estilo Ghibli gerada por IA evocar as mesmas emoções que o original, será que tem o mesmo valor? O filósofo Walter Benjamin, na sua obra "A obra de arte na era da sua reprodutibilidade técnica" (1935), argumentou que a reprodutibilidade mecânica corrói a "aura" da obra original - a sua singularidade espácio-temporal e autenticidade.
A IA generativa leva este argumento ao extremo: não reproduz obras existentes, mas gera variações infinitas que simulam o original sem o serem. É o simulacro baudrillardiano - a cópia sem o original.
No entanto, há algo irredutivelmente humano no ato criativo consciente: o artista que escolhe cada pincelada sabendo o que quer comunicar, o escritor que elabora cada frase para evocar emoções específicas, o compositor que constrói tensão e resolução com intencionalidade. A IA pode simular o resultado, mas não o processo - e talvez seja no processo que reside o valor autêntico da criatividade.
Como o Studio Ghibli escreveu numa declaração (novembro de 2023): "A alma dos nossos filmes não reside no estilo visual que pode ser copiado, mas nas decisões criativas que tomamos quadro a quadro para servir a história que queremos contar. Isso não pode ser automatizado".
O valor da arte, em última análise, deriva da sua capacidade de se ligar profundamente à experiência humana - de nos fazer sentir compreendidos, desafiados, transformados. Se isto pode ser conseguido pela IA continua a ser uma questão em aberto. Mas enquanto a arte for feita por humanos para humanos, falando da condição humana, manterá algo que nenhum algoritmo pode replicar: a autenticidade da experiência vivida traduzida em forma estética.
Fontes: