Newsletter

Regulamentar o que não é criado: a Europa arrisca-se a ser irrelevante do ponto de vista tecnológico?

**TITULO: European AI Act - The Paradox of Who Regulates What Doesn't Develop** **SUMÁRIO:** A Europa atrai apenas um décimo do investimento global em inteligência artificial, mas afirma ditar as regras globais. Este é o "Efeito Bruxelas" - impor regulamentos a uma escala planetária através do poder de mercado sem impulsionar a inovação. A Lei da IA entra em vigor num calendário escalonado até 2027, mas as empresas multinacionais de tecnologia respondem com estratégias criativas de evasão: invocando segredos comerciais para evitar revelar dados de formação, produzindo resumos tecnicamente conformes mas incompreensíveis, utilizando a autoavaliação para reduzir a classificação dos sistemas de "alto risco" para "risco mínimo", escolhendo os Estados-Membros com controlos menos rigorosos. O paradoxo dos direitos de autor extraterritoriais: a UE exige que a OpenAI cumpra as leis europeias, mesmo no caso de formação fora da Europa - um princípio nunca antes visto no direito internacional. Surge o "modelo duplo": versões europeias limitadas versus versões mundiais avançadas dos mesmos produtos de IA. Risco real: a Europa torna-se uma "fortaleza digital" isolada da inovação mundial, com os cidadãos europeus a acederem a tecnologias inferiores. O Tribunal de Justiça, no processo relativo à pontuação de crédito, já rejeitou a defesa dos "segredos comerciais", mas a incerteza interpretativa continua a ser enorme - o que significa exatamente "resumo suficientemente pormenorizado"? Ninguém sabe. Última pergunta sem resposta: estará a UE a criar uma terceira via ética entre o capitalismo americano e o controlo estatal chinês, ou simplesmente a exportar burocracia para uma área em que não compete? Para já: líder mundial na regulação da IA, marginal no seu desenvolvimento. Vasto programa.
Fabio Lauria
Diretor executivo e fundador da Electe‍

A Lei Europeia da IA: entre a transparência e as estratégias de evasão das empresas

A União Europeia deu um passo histórico com a entrada em vigor da Lei da IA, a primeira legislação abrangente do mundo sobre inteligência artificial. Este ato revolucionário, que coloca a Europa na vanguarda da governação da IA, estabelece um quadro regulamentar baseado no risco que visa equilibrar a inovação e a proteção dos direitos fundamentais. No entanto, o regulamento também representa mais uma manifestação do chamado "efeito Bruxelas" - a tendência da UE para impor as suas regras à escala mundial através do seu poder de mercado, sem necessariamente impulsionar a inovação tecnológica.

Enquanto os EUA e a China lideram o desenvolvimento da IA com investimentos públicos e privados maciços (45% e 30% dos investimentos globais em 2024, respetivamente), a Europa atraiu apenas 10% dos investimentos globais em IA. Em resposta, a UE tenta compensar o seu atraso tecnológico através da regulamentação, impondo normas que acabam por afetar todo o ecossistema global.

A questão central é: a Europa está a criar um ambiente que promove a inovação responsável ou está simplesmente a exportar burocracia para um sector onde não pode competir?

A dimensão extraterritorial da regulamentação europeia

A Lei da IA aplica-se não só às empresas europeias, mas também àquelas que operam no mercado europeu ou cujos sistemas de IA afectam os cidadãos da UE. Esta jurisdição extraterritorial é particularmente evidente nas disposições relativas aos modelos GPAI, em que o considerando 106 da lei estabelece que os fornecedores devem respeitar os direitos de autor da UE "independentemente da jurisdição em que se efectua a formação dos modelos".

Esta abordagem tem sido fortemente criticada por alguns observadores, que a vêem como uma tentativa da UE de impor as suas regras a empresas que não estão sediadas no seu território. Segundo os críticos, isto poderia criar uma fratura no ecossistema tecnológico global, com as empresas forçadas a desenvolver versões separadas dos seus produtos para o mercado europeu ou a adotar normas europeias para todos os mercados para evitar custos de conformidade adicionais.

As empresas tecnológicas multinacionais encontram-se, por conseguinte, numa posição difícil: ignorar o mercado europeu não é uma opção viável, mas o cumprimento do AI Act exige investimentos significativos e pode limitar o âmbito da inovação. Este efeito é ainda amplificado pelo ambicioso calendário de aplicação e pela incerteza interpretativa de muitas disposições.

O calendário de aplicação e o quadro regulamentar

A Lei da IA entrou em vigor em 1 de agosto de 2024, mas a sua aplicação seguirá um calendário escalonado:

  • 2 de fevereiro de 2025: Entrada em vigor da proibição de sistemas de IA que envolvam riscos inaceitáveis (como a pontuação social do governo) e das obrigações de literacia em IA
  • 2 de maio de 2025: Prazo para a finalização do Código de Conduta para Modelos de IA de Finalidade Geral (GPAI)
  • 2 de agosto de 2025: Aplicação das regras relativas aos modelos de IA de uso geral, à governação e às autoridades responsáveis pela comunicação de informações
  • 2 de agosto de 2026: Aplicação integral das disposições relativas aos sistemas de alto risco e às obrigações de transparência
  • 2 de agosto de 2027: Aplicação de normas para sistemas de alto risco sujeitos à legislação de segurança dos produtos

O regulamento adopta uma abordagem baseada no risco, classificando os sistemas de IA em quatro categorias: risco inaceitável (proibido), risco elevado (sujeito a requisitos rigorosos), risco limitado (com obrigações de transparência) e risco mínimo ou nulo (utilização livre). Esta classificação determina as obrigações específicas dos criadores, fornecedores e utilizadores.

As novas disposições em matéria de transparência: um obstáculo à inovação?

Uma das inovações mais significativas da Lei da IA diz respeito às obrigações de transparência, que visam resolver o problema da "caixa negra".caixa negra"dos sistemas de IA. Estas obrigações incluem:

  • A exigência de que os fornecedores de modelos GPAI publiquem um "resumo suficientemente pormenorizado" dos dados de formação, facilitando o controlo pelos detentores de direitos de autor e outras partes interessadas
  • A necessidade de os sistemas que interagem com seres humanos informarem os utilizadores de que estão a comunicar com um sistema de IA
  • A obrigação de rotular claramente os conteúdos gerados ou modificados pela IA (como os deepfakes)
  • A implementação de documentação técnica exaustiva para sistemas de alto risco

Estes requisitos, embora concebidos para proteger os direitos dos cidadãos, poderão representar um encargo significativo para as empresas, em especial para as empresas inovadoras em fase de arranque e as PME. A necessidade de documentar em pormenor os processos de desenvolvimento, os dados de formação e a lógica de tomada de decisões poderá abrandar os ciclos de inovação e aumentar os custos de desenvolvimento, colocando as empresas europeias em desvantagem em relação aos concorrentes de outras regiões com regulamentações menos rigorosas.

Estudos de casos: a evasão na prática

Pontuação de crédito e processos de decisão automatizados

O acórdão proferido no processo C-203/22 põe em evidência a forma como as empresas resistem inicialmente aos mandatos de transparência. O arguido, um fornecedor de telecomunicações, argumentou que a revelação da lógica do seu algoritmo de pontuação de crédito revelaria segredos comerciais, pondo em risco a sua vantagem competitiva6 . O TJUE rejeitou este argumento, afirmando que o artigo 22.º do RGPD confere às pessoas o direito a uma explicação dos "critérios e lógica" subjacentes às decisões automatizadas, mesmo que simplificadas6 .

IA generativa e evasão aos direitos de autor

De acordo com o sistema de dois níveis do AI Act, a maioria dos modelos de IA generativa enquadra-se no nível 1, exigindo o cumprimento dos direitos de autor da UE e resumos dos dados de formação2 . Para evitar alegações de violação de direitos de autor, empresas como a OpenAI passaram a utilizar dados resumidos ou conteúdos licenciados, mas persistem lacunas na documentação.

Implicações para os direitos de autor: a Europa estabelece a lei a nível mundial

A Lei da IA contém disposições específicas em matéria de direitos de autor que alargam a influência regulamentar da UE muito para além das suas fronteiras. Os fornecedores de modelos GPAI devem:

  • Respeitar a reserva de direitos estabelecida pela Diretiva Mercado Único Digital (2019/790)
  • Fornecer um resumo pormenorizado do conteúdo utilizado na formação, equilibrando a necessidade de proteger os segredos comerciais com a necessidade de permitir que os detentores de direitos de autor façam valer os seus direitos

O considerando 106 da Lei da IA estipula que os fornecedores devem respeitar a legislação da UE em matéria de direitos de autor, "independentemente da jurisdição em que o modelo de formação tenha lugar". Esta abordagem extraterritorial levanta questões sobre a compatibilidade com os princípios de territorialidade da lei dos direitos de autor e pode criar conflitos regulamentares com outras jurisdições.

Estratégias empresariais: evasão ou conformidade com o "Efeito Bruxelas"?

Para as empresas tecnológicas globais, a Lei da IA apresenta uma escolha estratégica fundamental: adaptar-se ao "Efeito Bruxelas" e cumprir as normas europeias a nível mundial ou desenvolver abordagens diferenciadas para diferentes mercados? Surgiram várias estratégias:

Estratégias de evasão e de atenuação

  1. O Escudo dos Segredos Comerciais: Muitas empresas estão a tentar limitar a divulgação invocando as protecções dos segredos comerciais da Diretiva dos Segredos Comerciais da UE. As empresas argumentam que a divulgação pormenorizada de dados de formação ou de arquitecturas de modelos exporia informações exclusivas, prejudicando a sua competitividade. Esta abordagem confunde a exigência da lei de um resumo dos dados com a divulgação completa.
  2. A complexidade técnica como defesa: A natureza intrinsecamente complexa dos sistemas modernos de IA oferece outra via de atenuação. As empresas produzem resumos tecnicamente conformes, mas excessivamente verbosos ou cheios de jargão, que cumprem formalmente os requisitos legais sem permitir um exame significativo. Por exemplo, um resumo de dados de formação pode enumerar categorias amplas de dados (por exemplo, "textos publicamente disponíveis") sem especificar fontes, proporções ou métodos específicos.
  3. A lacuna da autoavaliação: As alterações à Secção 6 da Lei IA introduzem um mecanismo de autoavaliação que permite aos criadores isentar os seus sistemas da classificação de alto risco se considerarem que os riscos são "negligenciáveis". Esta lacuna confere às empresas autoridade unilateral para evitarem obrigações de conformidade estritas.
  4. Fórum Regulamentar de Compras: A Lei da IA delega a aplicação às autoridades nacionais de fiscalização do mercado, o que conduz a potenciais disparidades em termos de rigor e competência. Algumas empresas estão a localizar estrategicamente as suas operações europeias em Estados-Membros com abordagens de aplicação mais laxistas ou com menos recursos de aplicação.

O "modelo duplo" como resposta ao Efeito Bruxelas

Algumas grandes empresas tecnológicas estão a desenvolver um "modelo duplo" de funcionamento:

  1. versões "compatíveis com a UE" dos seus produtos de IA com funcionalidade limitada, mas totalmente conformes com a Lei da IA
  2. Versões "globais" mais avançadas disponíveis em mercados menos regulamentados

Esta abordagem, embora dispendiosa, permite manter uma presença no mercado europeu sem comprometer a inovação global. No entanto, esta fragmentação poderá conduzir a um fosso tecnológico cada vez maior, com os utilizadores europeus a terem acesso a tecnologias menos avançadas do que os de outras regiões.

A incerteza regulamentar como obstáculo à inovação europeia

A Lei Europeia da IA representa um ponto de viragem na regulamentação da IA, mas a sua complexidade e ambiguidades de interpretação geram um clima de incerteza que pode afetar negativamente a inovação e o investimento no sector. As empresas enfrentam vários desafios:

A incerteza regulamentar como um risco para as empresas

A evolução do panorama regulamentar representa um risco significativo para as empresas. A interpretação de conceitos-chave como "resumo suficientemente pormenorizado" ou a classificação de sistemas de "alto risco" continua a ser ambígua. Esta incerteza pode resultar em:

  1. Custos de conformidade imprevisíveis: as empresas têm de afetar recursos significativos à conformidade sem terem a certeza absoluta dos requisitos finais.
  2. Estratégias de mercado prudentes: a incerteza regulamentar poderá conduzir a decisões de investimento mais conservadoras e a atrasos no desenvolvimento de novas tecnologias, nomeadamente na Europa.
  3. Fragmentação do mercado digital europeu: a interpretação desigual das regras entre os diferentes Estados-Membros corre o risco de criar uma manta de retalhos regulamentar difícil de navegar para as empresas.
  4. Concorrência global assimétrica: as empresas europeias podem ser sujeitas a restrições mais rigorosas do que os concorrentes de outras regiões, afectando a sua competitividade global.

O défice de inovação e a soberania tecnológica

O debate sobre o "efeito Bruxelas" insere-se no contexto mais vasto da soberania tecnológica europeia. A UE encontra-se na difícil posição de ter de equilibrar a necessidade de promover a inovação interna com a necessidade de regulamentar as tecnologias desenvolvidas principalmente por actores não europeus.

Em 2024, as empresas europeias atraíram apenas 10% do investimento global em IA, enquanto os EUA e a China dominaram o sector graças a uma combinação de investimentos públicos e privados maciços, políticas favoráveis à inovação e acesso a grandes volumes de dados. A Europa, com a sua fragmentação linguística, cultural e regulamentar, tem dificuldade em criar "campeões" tecnológicos capazes de competir a nível mundial.

Os críticos argumentam que a abordagem europeia centrada na regulamentação corre o risco de sufocar ainda mais a inovação e dissuadir o investimento, enquanto os apoiantes acreditam que a criação de um quadro regulamentar fiável pode efetivamente estimular o desenvolvimento de uma IA ética e segura "desde a conceção", criando uma vantagem competitiva a longo prazo.

Conclusão: regulamentação sem inovação?

O "efeito Bruxelas" da Lei da IA põe em evidência uma tensão fundamental na abordagem europeia da tecnologia: a capacidade de estabelecer normas globais através da regulamentação não é acompanhada pela correspondente liderança na inovação tecnológica. Esta assimetria levanta questões sobre a sustentabilidade a longo prazo desta abordagem.

Se a Europa continuar a regulamentar tecnologias que não desenvolve, corre o risco de se encontrar numa posição de crescente dependência tecnológica, em que as suas regras podem tornar-se cada vez menos relevantes num ecossistema global em rápida evolução. Além disso, as empresas não europeias poderão retirar-se progressivamente do mercado europeu ou oferecer versões limitadas dos seus produtos nesse mercado, criando uma "fortaleza digital europeia" cada vez mais isolada do progresso mundial.

Por outro lado, se a UE conseguisse equilibrar a sua abordagem regulamentar com uma estratégia eficaz de promoção da inovação, poderia efetivamente definir uma "terceira via" entre o capitalismo americano e o controlo estatal chinês, colocando os direitos humanos e os valores democráticos no centro do desenvolvimento tecnológico. Diriam os programas Vaste em França.

O futuro da IA na Europa dependerá não só da eficácia da Lei da IA na proteção dos direitos fundamentais, mas também da capacidade da Europa de acompanhar a regulamentação com um investimento adequado na inovação e de simplificar o quadro regulamentar para o tornar menos opressivo. Caso contrário, a Europa corre o risco de se encontrar numa situação paradoxal: líder mundial na regulamentação da IA, mas marginal no seu desenvolvimento e aplicação.

Referências e fontes

  1. Comissão Europeia. (2024). "Regulamento (UE) 2024/1689 que estabelece normas harmonizadas em matéria de inteligência artificial". Jornal Oficial da União Europeia.
  2. Gabinete Europeu de IA. (2025, abril). "Orientações preliminares sobre as obrigações dos fornecedores de modelos GPAI". Comissão Europeia.
  3. Tribunal de Justiça da União Europeia. (2025, fevereiro). "Acórdão no processo C-203/22 Dun & Bradstreet Austria". TJUE.
  4. Warso, Z., & Gahntz, M. (2024, dezembro). 'Como a Lei de IA da UE pode aumentar a transparência em torno dos dados de treinamento de IA'. TechPolicy.Press.. https://www.techpolicy.press/how-the-eu-ai-act-can-increase-transparency-around-ai-training-data/
  5. Wachter, S. (2024). "Limitations and Loopholes in the EU AI Act and AI Liability Directives" [Limitações e lacunas na Lei da IA da UE e nas diretivas relativas à responsabilidade pela IA]. Yale Journal of Law & Technology, 26(3). https://yjolt.org/limitations-and-loopholes-eu-ai-act-and-ai-liability-directives-what-means-european-union-united
  6. Direitos Digitais Europeus (EDRi). (2023, setembro). 'Os legisladores da UE devem fechar uma lacuna perigosa na Lei da IA'. https://www.amnesty.eu/news/eu-legislators-must-close-dangerous-loophole-in-ai-act/.
  7. Instituto Futuro da Vida. (2025). Verificador de conformidade da Lei da IA". https://artificialintelligenceact.eu/assessment/eu-ai-act-compliance-checker/
  8. Dumont, D. (2025, fevereiro). "Compreender a Lei da IA e os seus desafios de conformidade". Help Net Security. https://www.helpnetsecurity.com/2025/02/28/david-dumont-hunton-andrews-kurth-eu-ai-act-compliance/
  9. Guadamuz, A. (2025). "A Lei da Inteligência Artificial da UE e os direitos de autor". The Journal of World Intellectual Property. https://onlinelibrary.wiley.com/doi/full/10.1111/jwip.12330
  10. White & Case LLP. (2024, julho). A muito aguardada Lei da IA da UE torna-se lei após publicação no Jornal Oficial da UE". https://www.whitecase.com/insight-alert/long-awaited-eu-ai-act-becomes-law-after-publication-eus-official-journal.

Recursos para o crescimento das empresas