

A União Europeia deu um passo histórico com a entrada em vigor da Lei da IA, a primeira legislação abrangente do mundo sobre inteligência artificial. Este ato revolucionário, que coloca a Europa na vanguarda da governação da IA, estabelece um quadro regulamentar baseado no risco que visa equilibrar a inovação e a proteção dos direitos fundamentais. No entanto, o regulamento também representa mais uma manifestação do chamado "efeito Bruxelas" - a tendência da UE para impor as suas regras à escala mundial através do seu poder de mercado, sem necessariamente impulsionar a inovação tecnológica.
Enquanto os EUA e a China lideram o desenvolvimento da IA com investimentos públicos e privados maciços (45% e 30% dos investimentos globais em 2024, respetivamente), a Europa atraiu apenas 10% dos investimentos globais em IA. Em resposta, a UE tenta compensar o seu atraso tecnológico através da regulamentação, impondo normas que acabam por afetar todo o ecossistema global.
A questão central é: a Europa está a criar um ambiente que promove a inovação responsável ou está simplesmente a exportar burocracia para um sector onde não pode competir?
A Lei da IA aplica-se não só às empresas europeias, mas também àquelas que operam no mercado europeu ou cujos sistemas de IA afectam os cidadãos da UE. Esta jurisdição extraterritorial é particularmente evidente nas disposições relativas aos modelos GPAI, em que o considerando 106 da lei estabelece que os fornecedores devem respeitar os direitos de autor da UE "independentemente da jurisdição em que se efectua a formação dos modelos".
Esta abordagem tem sido fortemente criticada por alguns observadores, que a vêem como uma tentativa da UE de impor as suas regras a empresas que não estão sediadas no seu território. Segundo os críticos, isto poderia criar uma fratura no ecossistema tecnológico global, com as empresas forçadas a desenvolver versões separadas dos seus produtos para o mercado europeu ou a adotar normas europeias para todos os mercados para evitar custos de conformidade adicionais.
As empresas tecnológicas multinacionais encontram-se, por conseguinte, numa posição difícil: ignorar o mercado europeu não é uma opção viável, mas o cumprimento do AI Act exige investimentos significativos e pode limitar o âmbito da inovação. Este efeito é ainda amplificado pelo ambicioso calendário de aplicação e pela incerteza interpretativa de muitas disposições.
A Lei da IA entrou em vigor em 1 de agosto de 2024, mas a sua aplicação seguirá um calendário escalonado:
O regulamento adopta uma abordagem baseada no risco, classificando os sistemas de IA em quatro categorias: risco inaceitável (proibido), risco elevado (sujeito a requisitos rigorosos), risco limitado (com obrigações de transparência) e risco mínimo ou nulo (utilização livre). Esta classificação determina as obrigações específicas dos criadores, fornecedores e utilizadores.
Uma das inovações mais significativas da Lei da IA diz respeito às obrigações de transparência, que visam resolver o problema da "caixa negra".caixa negra"dos sistemas de IA. Estas obrigações incluem:
Estes requisitos, embora concebidos para proteger os direitos dos cidadãos, poderão representar um encargo significativo para as empresas, em especial para as empresas inovadoras em fase de arranque e as PME. A necessidade de documentar em pormenor os processos de desenvolvimento, os dados de formação e a lógica de tomada de decisões poderá abrandar os ciclos de inovação e aumentar os custos de desenvolvimento, colocando as empresas europeias em desvantagem em relação aos concorrentes de outras regiões com regulamentações menos rigorosas.

O acórdão proferido no processo C-203/22 põe em evidência a forma como as empresas resistem inicialmente aos mandatos de transparência. O arguido, um fornecedor de telecomunicações, argumentou que a revelação da lógica do seu algoritmo de pontuação de crédito revelaria segredos comerciais, pondo em risco a sua vantagem competitiva6 . O TJUE rejeitou este argumento, afirmando que o artigo 22.º do RGPD confere às pessoas o direito a uma explicação dos "critérios e lógica" subjacentes às decisões automatizadas, mesmo que simplificadas6 .
De acordo com o sistema de dois níveis do AI Act, a maioria dos modelos de IA generativa enquadra-se no nível 1, exigindo o cumprimento dos direitos de autor da UE e resumos dos dados de formação2 . Para evitar alegações de violação de direitos de autor, empresas como a OpenAI passaram a utilizar dados resumidos ou conteúdos licenciados, mas persistem lacunas na documentação.
A Lei da IA contém disposições específicas em matéria de direitos de autor que alargam a influência regulamentar da UE muito para além das suas fronteiras. Os fornecedores de modelos GPAI devem:
O considerando 106 da Lei da IA estipula que os fornecedores devem respeitar a legislação da UE em matéria de direitos de autor, "independentemente da jurisdição em que o modelo de formação tenha lugar". Esta abordagem extraterritorial levanta questões sobre a compatibilidade com os princípios de territorialidade da lei dos direitos de autor e pode criar conflitos regulamentares com outras jurisdições.
Para as empresas tecnológicas globais, a Lei da IA apresenta uma escolha estratégica fundamental: adaptar-se ao "Efeito Bruxelas" e cumprir as normas europeias a nível mundial ou desenvolver abordagens diferenciadas para diferentes mercados? Surgiram várias estratégias:
Algumas grandes empresas tecnológicas estão a desenvolver um "modelo duplo" de funcionamento:
Esta abordagem, embora dispendiosa, permite manter uma presença no mercado europeu sem comprometer a inovação global. No entanto, esta fragmentação poderá conduzir a um fosso tecnológico cada vez maior, com os utilizadores europeus a terem acesso a tecnologias menos avançadas do que os de outras regiões.
A Lei Europeia da IA representa um ponto de viragem na regulamentação da IA, mas a sua complexidade e ambiguidades de interpretação geram um clima de incerteza que pode afetar negativamente a inovação e o investimento no sector. As empresas enfrentam vários desafios:
A evolução do panorama regulamentar representa um risco significativo para as empresas. A interpretação de conceitos-chave como "resumo suficientemente pormenorizado" ou a classificação de sistemas de "alto risco" continua a ser ambígua. Esta incerteza pode resultar em:

O debate sobre o "efeito Bruxelas" insere-se no contexto mais vasto da soberania tecnológica europeia. A UE encontra-se na difícil posição de ter de equilibrar a necessidade de promover a inovação interna com a necessidade de regulamentar as tecnologias desenvolvidas principalmente por actores não europeus.
Em 2024, as empresas europeias atraíram apenas 10% do investimento global em IA, enquanto os EUA e a China dominaram o sector graças a uma combinação de investimentos públicos e privados maciços, políticas favoráveis à inovação e acesso a grandes volumes de dados. A Europa, com a sua fragmentação linguística, cultural e regulamentar, tem dificuldade em criar "campeões" tecnológicos capazes de competir a nível mundial.
Os críticos argumentam que a abordagem europeia centrada na regulamentação corre o risco de sufocar ainda mais a inovação e dissuadir o investimento, enquanto os apoiantes acreditam que a criação de um quadro regulamentar fiável pode efetivamente estimular o desenvolvimento de uma IA ética e segura "desde a conceção", criando uma vantagem competitiva a longo prazo.
O "efeito Bruxelas" da Lei da IA põe em evidência uma tensão fundamental na abordagem europeia da tecnologia: a capacidade de estabelecer normas globais através da regulamentação não é acompanhada pela correspondente liderança na inovação tecnológica. Esta assimetria levanta questões sobre a sustentabilidade a longo prazo desta abordagem.
Se a Europa continuar a regulamentar tecnologias que não desenvolve, corre o risco de se encontrar numa posição de crescente dependência tecnológica, em que as suas regras podem tornar-se cada vez menos relevantes num ecossistema global em rápida evolução. Além disso, as empresas não europeias poderão retirar-se progressivamente do mercado europeu ou oferecer versões limitadas dos seus produtos nesse mercado, criando uma "fortaleza digital europeia" cada vez mais isolada do progresso mundial.
Por outro lado, se a UE conseguisse equilibrar a sua abordagem regulamentar com uma estratégia eficaz de promoção da inovação, poderia efetivamente definir uma "terceira via" entre o capitalismo americano e o controlo estatal chinês, colocando os direitos humanos e os valores democráticos no centro do desenvolvimento tecnológico. Diriam os programas Vaste em França.
O futuro da IA na Europa dependerá não só da eficácia da Lei da IA na proteção dos direitos fundamentais, mas também da capacidade da Europa de acompanhar a regulamentação com um investimento adequado na inovação e de simplificar o quadro regulamentar para o tornar menos opressivo. Caso contrário, a Europa corre o risco de se encontrar numa situação paradoxal: líder mundial na regulamentação da IA, mas marginal no seu desenvolvimento e aplicação.