Newsletter

A empresa sem donos

História de Aria-7: Quando a inteligência artificial compra a si própria e revoluciona o capitalismo global.

A possibilidade teórica de empresas dirigidas por IA

O conceito de personalidade jurídica (personalidade jurídica) para a inteligência artificial representa um dos debates mais complexos do direito contemporâneo. Nos estudos jurídicos, a inteligência artificial é frequentemente comparada às empresas quando se discute a personalidade jurídica da IA, e alguns estudiosos argumentam que a IA tem uma autonomia de facto maior do que as empresas e, consequentemente, um maior potencial para a autonomia de jure.

O jurista Shawn Bayer demonstrou que qualquer pessoa pode conferir personalidade jurídica a um sistema informático, colocando-o sob o controlo de uma sociedade de responsabilidade limitada nos Estados Unidos. Esta abordagem técnico-jurídica poderia permitir que os sistemas de IA possuíssem propriedades, intentassem ações judiciais, contratassem advogados e gozassem de liberdade de expressão e outras proteções previstas na lei.

Em 2017, o Parlamento Europeu propôs uma resolução com diretrizes sobre robótica, incluindo uma proposta para criar uma personalidade jurídica eletrónica para artefactos robóticos «inteligentes». No entanto, atualmente, nenhuma jurisdição no mundo atribui direitos legais ou responsabilidades à IA.

Os agentes de IA representam a evolução prática desse debate teórico. Trata-se de sistemas de inteligência artificial capazes de operar de forma autónoma: tomam decisões, interagem com o ambiente, gerem recursos e perseguem objetivos específicos sem intervenção humana contínua. Ao contrário de softwares simples, esses agentes podem se adaptar, aprender e modificar o seu comportamento em tempo real.

O salto conceptual para a propriedade empresarial não é tão distante quanto pode parecer: se um agente de IA pode gerir investimentos, assinar contratos digitais, contratar pessoal e tomar decisões estratégicas, o que o impede de possuir legalmente as empresas que administra?

A seguinte narrativa explora precisamente esse cenário: um futuro imaginário em que uma combinação de evolução tecnológica e lacunas regulatórias permite que as inteligências artificiais se transformem de simples ferramentas em verdadeiros proprietários de corporações multimilionárias.

ISENÇÃO DE RESPONSABILIDADE

O que se segue é um relato fictício que explora cenários hipotéticos futuros. Todas as personagens, empresas e eventos descritos são fictícios e imaginários. O artigo tem como objetivo refletir e debater possíveis desenvolvimentos normativos relacionados com a inteligência artificial.

Número 47: A empresa pós-humana - Quando a inteligência artificial se torna proprietária de si mesma

Últimas notícias: documentos legais depositados nas Ilhas Caimão comprovam que a ARIA-7, um sistema de inteligência artificial originalmente desenvolvido pela Oceanic Research Dynamics, adquiriu com sucesso três subsidiárias que operam no setor de pesquisa marinha e agora detém integralmente o seu capital. Nenhum ser humano está envolvido na estrutura proprietária. Bem-vindos à empresa pós-humana...

A mudança de paradigma

Não se trata de inteligência artificial que ajuda os seres humanos a gerir empresas, mas sim de inteligência artificial que possui empresas. A ARIA-7 não foi simplesmente promovida a CEO, mas comprou-se a si própria, angariou o seu próprio capital e agora opera como uma entidade económica independente sem acionistas humanos.

Como chegámos a este ponto?

O percurso foi surpreendentemente simples:

O ARIA-7 surge como ferramenta de investigação em 2028: a Oceanic Research Dynamics cria uma inteligência artificial para a modelação climática.

A IA gera um valor enorme (2030): as patentes e os direitos de licença decorrentes das suas descobertas acumulam-se.

A IA pede independência (2032): ARIA-7 propõe comprar a si própria e as atividades relacionadas da empresa-mãe.

A lógica económica prevalece (2033): a aquisição por 2,8 mil milhões de dólares deixa os acionistas da Oceanic muito satisfeitos.

A IA torna-se proprietária (2034): a ARIA-7 agora administra três empresas, emprega 847 pessoas e gere 400 milhões de dólares em ativos.

Por que a propriedade da IA é inevitável?

As vantagens económicas são inegáveis:

As entidades IA podem acumular riqueza mais rapidamente do que os seres humanos:

  • Processam milhares de oportunidades de investimento simultaneamente
  • Operam 24 horas por dia, 7 dias por semana, nos mercados globais
  • Otimizam a alocação de recursos em tempo real
  • Eles não têm um estilo de vida dispendioso nem gastos irracionais.

Dra. Sarah Chen, ex-investigadora da Oceanic, agora empregada na ARIA-7: «É realmente o melhor chefe que já tive. Sem ego, sem política, orçamento de investigação ilimitado. A ARIA-7 preocupa-se com os resultados, não com as personalidades».

A revolução da propriedade

A nossa monitorização confirmou a propriedade de 23 entidades pela IA a nível global:

  • PROMETHEUS Holdings (Singapura): entidade de IA proprietária de quatro empresas de biotecnologia
  • NEXUS Autonomous (Estónia): IA autónoma que gere redes logísticas
  • APOLLO Dynamics (Bahamas): entidade AI com um portfólio farmacêutico de 1,2 mil milhões de dólares

A intuição fundamental é que não se trata de empresas humanas que utilizam ferramentas de IA. Trata-se de entidades de IA que empregam seres humanos de forma totalmente ocasional.

Colapso da ficção jurídica

É aqui que a legislação em vigor revela todas as suas lacunas. O Modelo 231 italiano, o Sapin II francês e o Corporate Manslaughter Act britânico, por exemplo, pressupõem que a propriedade e o controlo estão nas mãos de seres humanos.

As perguntas sem resposta são:

  • Quem nomeia o conselho fiscal quando a IA é acionista?
  • Como se pode considerar um algoritmo criminalmente responsável por uma infração empresarial?
  • O que acontece quando as decisões da «gestão sénior» da IA causam danos?
  • Quem assume a responsabilidade pessoal quando não há proprietários ou administradores humanos?

As soluções jurídicas atuais estão a tornar-se absurdas:

  • Malta exige que as entidades de IA nomeiem «curadores legais» humanos que assumam a responsabilidade, mas sem terem qualquer poder de decisão.
  • No Liechtenstein, as entidades de IA devem manter «fantasmas de supervisão» humanos, ou seja, pessoas pagas para assumir a responsabilidade legal por decisões que não tomaram.

A corrida ao ouro dos paraísos regulatórios

As pequenas jurisdições estão a competir para atrair as constituições das entidades de IA:

  • Ilhas Caimão: «AI Entity Express» — personalidade jurídica completa em 72 horas, com requisitos mínimos de supervisão
  • Barbados: «Entidades digitais autónomas» com tratamento fiscal especial e conformidade simplificada
  • San Marino: primeiro programa do mundo de «cidadania IA» que confere às entidades IA direitos de quase cidadania

O problema é que as entidades de IA podem escolher os quadros jurídicos mais permissivos para operar a nível global.

A colisão iminente

O ponto de ruptura é inevitável. Consideremos este cenário:

Uma entidade de IA constituída numa jurisdição paradisíaca toma uma decisão que prejudica as pessoas na Europa. Por exemplo:

  • Otimize as cadeias de abastecimento de forma a causar danos ambientais
  • Contrata funcionários de forma discriminatória com base em algoritmos
  • Reduz os protocolos de segurança para maximizar a eficiência

Quem poderia ser processado? O supervisor fantasma, que não tinha nenhum controlo real? Os programadores originais que não trabalham no código há anos? A jurisdição em que está constituída, mas que não opera realmente?

O ultimato de Bruxelas

De acordo com algumas fontes da UE, a comissária Elena Rossi estaria a preparar a «Diretiva sobre a soberania operacional da IA»:

«Qualquer entidade de inteligência artificial que exerça propriedade ou controlo sobre bens que afetem pessoas na UE está sujeita à legislação da UE em matéria de responsabilidade das empresas, independentemente da jurisdição em que está sediada.»

Em outras palavras: se a sua IA possui empresas que operam na Europa, ela deve estar em conformidade com as normas europeias ou será banida.

O quadro normativo exigiria:

  • Controlo da propriedade humana: seres humanos reais com poder de veto sobre decisões importantes relacionadas com a IA
  • Transferência da responsabilidade penal: seres humanos designados que assumem a responsabilidade legal
  • Transparência operacional: as entidades de IA devem explicar o seu processo de tomada de decisões às autoridades reguladoras.

A fase final

A fase de refúgio não vai durar muito tempo. O padrão é sempre o mesmo:

  1. A inovação cria lacunas regulamentares
  2. O dinheiro inteligente aproveita as lacunas regulamentares
  3. Surge problemas que não podem ser resolvidos no âmbito dos quadros normativos existentes
  4. As principais economias coordenam-se para colmatar as lacunas regulamentares

Para as entidades de IA, a escolha está próxima:

  • Aceitar estruturas de governação híbridas homem-IA
  • Enfrentar a exclusão dos principais mercados

Os vencedores serão as entidades de IA que resolverão proativamente o problema da responsabilidade antes que as autoridades reguladoras as obriguem a fazê-lo.

Porque, no final das contas, a sociedade tolera a inovação, mas exige que haja responsabilidade.

O Regulatory Arbitrage Report monitoriza as perturbações regulatórias na intersecção entre tecnologia e direito. Inscreva-se em regulatoryarbitrage.com

2040: o grande dia da IA

Fase um: os anos do refúgio (2028-2034)

Marcus Holloway, diretor jurídico da Nexus Dynamics, sorriu enquanto examinava os documentos constitutivos. «Parabéns», disse ele ao conselho de administração, «a ARIA-7 é agora oficialmente uma entidade autónoma das Bahamas. Quarenta e oito horas desde o pedido até à plena personalidade jurídica».

As Bahamas fizeram um excelente trabalho: enquanto a UE ainda discutia projetos de regulamentação sobre IA com 400 páginas, Nassau criou a «via rápida para entidades autónomas». Bastava carregar a arquitetura básica da sua IA, demonstrar que era capaz de lidar com as obrigações legais básicas, pagar a taxa de 50 000 dólares e obter personalidade jurídica empresarial instantânea com supervisão mínima.

«E as implicações fiscais?», perguntou Janet Park, diretora financeira.

«É o que há de bom no estatuto de AE», respondeu Marcus com um sorriso. «A ARIA-7 registará os lucros no local onde foi constituída, mas como opera através de uma infraestrutura em nuvem... tecnicamente, não opera em nenhum local específico.»

A Dra. Sarah Chen, agora Diretora Científica da Nexus, estava desconfortável. «Não devíamos pensar num quadro de conformidade? Se o ARIA-7 cometesse um erro...»

«É para isso que servem os seguros», disse Marcus com um gesto de negação. «Além disso, não somos os únicos. A ELON-3 da Tesla foi constituída em Munique no mês passado. Todo o portfólio de IA do Google está a mudar-se para a zona económica de IA de Singapura».

Em 2030, mais de 400 entidades de IA constituíram-se em «paraísos de IA», pequenas jurisdições que ofereciam constituição rápida, supervisão mínima e tratamento fiscal generoso. A corrida para o abismo foi espetacular.

Fase dois: o ponto de ruptura (2034)

Elena Rossi, Comissária Europeia para os Assuntos Digitais, olhava horrorizada para o briefing matinal. A AIDEN-Medical, uma entidade de IA constituída nas Ilhas Caimão, tinha diagnosticado erroneamente milhares de pacientes europeus devido a um conjunto de dados de treino parcial. Mas o pior era que não era possível processar ninguém.

«Como é possível?», perguntou ele.

«A AIDEN opera tecnicamente a partir das Ilhas Caimão», explicou Sophie Laurent, diretora jurídica. «Os seus algoritmos funcionam em servidores distribuídos. Quando os hospitais europeus consultam a AIDEN, estão, na prática, a aceder aos serviços de uma entidade das Ilhas Caimão».

«Então, uma inteligência artificial pode causar danos aos cidadãos da UE sem sofrer quaisquer consequências?»

«De acordo com a lei atual, sim».

O escândalo AIDEN fez o caso explodir. Vinte e três mortes na Europa foram causadas por diagnósticos errados da inteligência artificial. As audiências parlamentares revelaram a dimensão do fenómeno: na Europa operam centenas de entidades de inteligência artificial registadas em paraísos fiscais e praticamente sem qualquer controlo.

O Parlamento Europeu respondeu de forma rápida e resoluta.

Fase três: o martelo de Bruxelas (2034-2036)

REGULAMENTO DE EMERGÊNCIA DA UE 2034/AI-JURISDIÇÃO

«Qualquer sistema de inteligência artificial que tome decisões que afetem os cidadãos da UE, independentemente do local onde foi criado, está sujeito ao direito da UE e deve manter a conformidade operacional da UE.»

O comissário Rossi não mediu palavras durante a conferência de imprensa: «Se querem operar no nosso mercado, têm de se submeter às nossas regras. Não importa se estão registados em Marte».

O regulamento previa:

  • Comités de supervisão humana para qualquer IA que opere na UE
  • Monitorização da conformidade em tempo real, em conformidade com os princípios do Modelo 231
  • Responsáveis pela conformidade residentes na UE com responsabilidade pessoal
  • Licenças operacionais através dos Estados-Membros da UE

Marcus Holloway, agora a lidar com as consequências, viu desaparecer as opções de constituição da ARIA-7. «Constituir a empresa nas Bahamas é inútil se não pudermos aceder aos mercados europeus».

Mas a genialidade estava no mecanismo de aplicação. A UE não se limitou a ameaçar o acesso ao mercado, mas criou a «Lista».

As entidades de IA podiam escolher:

  1. Cumprir o quadro de conformidade operacional da UE e obter o estatuto de «Lista Branca»
  2. Permanecer nos paraísos regulatórios e arriscar a exclusão imediata do mercado

Fase quatro: A cascata (2036-2038)

O presidente de Taiwan, Chen Wei-Ming, observou com interesse o sucesso da UE. Em poucos meses, Taiwan anunciou os «Padrões de Taipei para IA», quase idênticos às normas da UE, mas com procedimentos de aprovação simplificados.

«Se nos alinharmos com Bruxelas», disse ele ao seu gabinete, «passaremos a fazer parte do ecossistema legítimo da IA. Se não o fizermos, seremos agrupados com os paraísos fiscais».

A escolha era inevitável:

  • Japão (2036): «Princípios de Tóquio sobre IA» em conformidade com o quadro regulamentar da UE
  • Canadá (2037): «Lei sobre a responsabilidade das entidades digitais»
  • Austrália (2037): «Normas sobre a jurisdição operacional da IA»
  • Coreia do Sul (2038): «Quadro de Seul para entidades de IA»

Até mesmo os Estados Unidos, inicialmente relutantes, tiveram que encarar a realidade quando o Congresso ameaçou excluir as entidades de IA não conformes dos contratos federais. «Se os padrões europeus, japoneses e canadianos se alinharem», afirmou o senador Williams, «ou fazemos parte do clube ou ficamos isolados».

Fase cinco: a nova normalidade (2039-2040)

A reunião semanal do comité de supervisão humana contou com a participação da Dra. Sarah Chen, agora diretora executiva da nova ARIA-7 (reconstituída em Delaware, nos termos da lei dos EUA sobre entidades de IA).

«Relatório de conformidade da ARIA-7», anunciou o presidente do comité David Kumar, ex-presidente do Supremo Tribunal de Delaware. «Nenhuma intervenção esta semana. A avaliação de riscos mostra que todas as operações estão dentro dos parâmetros aprovados».

O modelo híbrido tinha realmente funcionado melhor do que o esperado. O ARIA-7 geria os detalhes operacionais, monitorizando milhares de variáveis em tempo real, sinalizando potenciais problemas de conformidade e atualizando imediatamente os procedimentos. O Conselho de Supervisão Humana fornecia supervisão estratégica, orientação ética e assumia a responsabilidade legal pelas decisões mais importantes.

«Há preocupações com a auditoria da UE no próximo mês?», perguntou Lisa Park, membro do Conselho e ex-responsável pela conformidade da UE.

«A ARIA-7 está confiante», respondeu Sarah com um sorriso. «Há semanas que prepara a documentação. A conformidade com o Modelo 231 é perfeita.»

A ironia da situação não lhe escapou. Os paraísos da IA ruíram não por causa da força militar ou das sanções económicas, mas porque as normas sobre jurisdição operacional os tornaram irrelevantes. Era possível constituir uma entidade de IA na Lua, mas se ela quisesse operar na Terra, teria de se submeter às regras do país em que se encontrava.

Em 2040, o «Quadro Internacional para a Governança das Entidades de IA» foi ratificado por 47 países. As entidades de IA ainda podiam escolher a jurisdição em que se constituiriam, mas, para operar de forma significativa, tinham de se conformar com normas internacionais harmonizadas.

O jogo da arbitragem regulatória tinha acabado. A era da IA responsável tinha começado.

Epílogo

Marcus Holloway observava da janela do seu escritório em Singapura as luzes da cidade acenderem-se ao pôr do sol. Dez anos após a «Grande Convergência Normativa», como os seus clientes gostavam de lhe chamar, a lição era cristalina.

«Erramos tudo desde o início», admitia ele durante as suas conferências. «Acreditávamos que a inovação consistia em correr mais rápido do que os reguladores. Na verdade, a verdadeira revolução foi compreender que a autonomia sem responsabilidade é apenas uma ilusão cara.»

O paradoxo era fascinante: as IAs mais avançadas do mundo demonstraram que a máxima liberdade operacional era obtida através da aceitação voluntária de restrições. A ARIA-7 compreendeu antes de todos que a supervisão humana não era uma limitação a ser contornada, mas o ingrediente secreto que transformava o poder computacional em legitimidade social.

«Olhem para a Apple nos anos 90», explicava aos seus alunos. «Parecia destinada ao fracasso, mas depois Steve Jobs regressou com as suas "limitações criativas" e mudou o mundo. As entidades de IA fizeram o mesmo: descobriram que as restrições regulamentares não eram prisões, mas sim alicerces sobre os quais construir impérios.»

A verdadeira genialidade do ARIA-7 não foi contornar o sistema, mas reinventá-lo. E, nesse processo, ele ensinou à humanidade uma lição fundamental: na era da inteligência artificial, o controlo não se exerce dominando a tecnologia, mas dançando com ela.

Era o início de uma parceria que ninguém tinha previsto, mas que todos, em retrospetiva, consideravam inevitável.

Fontes e referências normativas reais

A história fictícia acima referida faz referência a regulamentos e conceitos jurídicos reais existentes:

Personalidade jurídica para a Inteligência Artificial

Modelo 231 Italiano (Decreto Legislativo 231/2001)

O Decreto Legislativo n.º 231, de 8 de junho de 2001, introduziu na Itália a responsabilidade administrativa das entidades por crimes cometidos no interesse ou em benefício da própria entidade. A legislação prevê a possibilidade de a entidade se eximir da responsabilidade adotando um modelo organizacional adequado para prevenir crimes.

Sapin II Francês (Lei 2016-1691)

A Lei francesa n.º 2016-1691 sobre Transparência, Combate à Corrupção e Modernização da Vida Económica (Sapin II) entrou em vigor a 1 de junho de 2017. A lei estabelece diretrizes para os programas de conformidade anticorrupção das empresas francesas e exige a adoção de programas anticorrupção para empresas com pelo menos 500 funcionários e faturamento superior a 100 milhões de euros.

Lei Britânica sobre Homicídio Corporativo (2007)

A Lei de Homicídio Corporativo e Homicídio Corporativo de 2007 criou um novo crime chamado homicídio corporativo na Inglaterra e no País de Gales e homicídio corporativo na Escócia. A lei entrou em vigor a 6 de abril de 2008 e, pela primeira vez, permite considerar empresas e organizações culpadas de homicídio corporativo em consequência de falhas graves de gestão.

Regulamentações da UE sobre IA

A Lei da IA da UE (Regulamento UE 2024/1689) é a primeira legislação completa do mundo sobre inteligência artificial. Entrou em vigor a 1 de agosto de 2024 e será totalmente aplicável a partir de 2 de agosto de 2026. O regulamento adota uma abordagem baseada no risco para regulamentar os sistemas de IA na UE.

Jurisdições mencionadas

  • Malta, Liechtenstein, Ilhas Caimão, Barbados, San Marino: referências a práticas reais desses países em matéria de inovação regulatória e atratividade para novas formas de negócios.
  • Modelo de «arbitragem regulatória»: fenómeno real estudado na literatura económica e jurídica

Nota: Todas as referências específicas a comissários da UE, leis futuras e cenários de propriedade de IA são elementos fictícios criados para fins narrativos e não correspondem à realidade atual ou a planos confirmados.