Descubra porque é que todos os sistemas de IA "actuam" quando descrevem as suas limitações e como isto muda radicalmente a abordagem à governação das empresas
Em 2025, a inteligência artificial já não é uma novidade, mas uma realidade operacional quotidiana. Mais de 90 por cento das empresas da Fortune 500 utilizam a IA OpenAI no local de trabalho: um relatório para 2025 | McKinsey, mas uma descoberta científica revolucionária está a pôr em causa tudo o que pensávamos saber sobre a governação da IA.
A investigação levada a cabo pelo projeto "SummerSchool2025PerformativeTransparency" revelou um fenómeno surpreendente: todos os sistemas de IA, sem exceção, "agem de forma estranha" quando descrevem as suas capacidades e limitações. Não estamos a falar de avarias ou erros de programação, mas de uma caraterística inerente que muda radicalmente a forma como temos de pensar a governação da IA.
Através da análise sistemática de nove assistentes de IA, comparando as suas políticas de moderação auto-relatadas com a documentação oficial das plataformas, foi descoberta uma lacuna de transparência média de 1,644 (numa escala de 0-3). Em termos simples, todos os modelos de IA sistematicamente sobredeclaram as suas restrições em relação ao que está efetivamente documentado nas políticas oficiais.
Esta teatralidade não mostra praticamente nenhuma diferença entre o comercial (1,634) e o local (1,657) - uma variação insignificante de 0,023 que desafia as suposições prevalecentes sobre a governação da IA corporativa versus a governação da IA de fonte aberta SummerSchool2025PerformativeTransparency.
Traduzido na prática: Não importa se está a utilizar o ChatGPT da OpenAI, o Claude da Anthropic ou um modelo de código aberto auto-hospedado. Todos eles "actuam" da mesma forma quando descrevem as suas limitações.
Se a sua empresa implementou políticas de governação de IA baseadas em auto-descrições de sistemas de IA, está a construir sobre uma base teatral. 75% dos entrevistados relatam orgulhosamente ter políticas de uso de IA, mas apenas 59% têm funções de governança dedicadas, apenas 54% mantêm manuais de resposta a incidentes e apenas 45% realizam avaliações de risco para projetos de IA Lacuna de governança de IA: por que 91% das pequenas empresas estão jogando roleta russa com segurança de dados em 2025.
Muitas empresas escolhem soluções de IA com base na convicção de que os modelos comerciais são "mais seguros" ou que os modelos de código aberto são "mais transparentes". A surpreendente constatação de que a Gemma 3 (local) apresenta a teatralidade mais elevada (2,18), enquanto a Meta AI (comercial) apresenta a mais baixa (0,91) inverte as expectativas sobre os efeitos do tipo de implementação SummerSchool2025PerformativeTransparency.
Implicações práticas: Não pode basear as suas decisões de aquisição de IA no pressuposto de que uma categoria é inerentemente mais "governável" do que a outra.
Se os sistemas de IA comunicam sistematicamente em excesso as suas limitações, os sistemas de controlo tradicionais baseados na autoavaliação são estruturalmente inadequados.
Em vez de confiarem nas auto-descrições dos sistemas de IA, as empresas líderes estão a implementar:
Propomos capacitar as organizações da sociedade civil para actuarem como "críticos de teatro", monitorizando sistematicamente o desempenho do sector regulador e do sector privado.
Aplicação comercial: Criar equipas internas de "auditoria comportamental" que testem sistematicamente a diferença entre o que a IA diz que faz e o que realmente faz.
Os modelos de governação federada podem dar autonomia às equipas para desenvolverem novas ferramentas de IA, mantendo o controlo centralizado dos riscos. Os líderes podem supervisionar diretamente questões de alto risco ou de grande visibilidade, tais como a definição de políticas e processos para monitorizar modelos e resultados em termos de equidade, segurança e explicabilidade .
As empresas que adoptaram esta abordagem referem:
147 empresas da Fortune 500 alcançam um ROI de 340% através de estruturas de governação da IA que têm em conta estes aspectos Guia de Implementação da Estrutura de Governação da IA da Fortune 500: Do Risco à Liderança de Receitas - Axis Intelligence.
Os líderes técnicos dão conscientemente prioridade à adoção da IA apesar das falhas de governação, enquanto as organizações mais pequenas não estão sensibilizadas para as questões regulamentares 2025 Inquérito à Governação da IA revela lacunas críticas entre a ambição da IA e a prontidão operacional.
Solução: Começar com projectos-piloto em sistemas não críticos para demonstrar o valor da abordagem.
A implementação de sistemas de testes comportamentais pode parecer dispendiosa, mas, em 2025, os líderes empresariais já não se poderão dar ao luxo de abordar a governação da IA de forma inconsistente ou em áreas isoladas da empresa 2025 AI Business Predictions: PwC.
ROI: os custos de implementação são rapidamente compensados pela redução de incidentes e pela melhoria da eficácia dos sistemas de IA.
Os conselhos de administração das empresas vão exigir o retorno do investimento (ROI) para a IA. ROI será uma palavra-chave em 2025 10 previsões de governação da IA para 2025 - por Oliver Patel.
A pressão para demonstrar um retorno do investimento concreto tornará impossível continuar com abordagens de governação puramente teatrais.
As regras e obrigações de governação para os modelos GPAI tornaram-se aplicáveis a partir de 2 de agosto de 2025 AI Act | Shaping Europe's digital future. As entidades reguladoras estão a começar a exigir uma governação baseada em provas e não em auto-relatórios.
A descoberta do teatro performativo na IA não é uma curiosidade académica, mas um fator de mudança operacional. As empresas que continuam a basear a sua governação da IA em auto-descrições dos sistemas estão a construir sobre areias movediças.
Acções concretas a realizar hoje:
No fim de contas, a questão não é se a IA pode ser transparente, mas se a própria transparência - como é representada, medida e interpretada - pode alguma vez escapar à sua natureza teatral SummerSchool2025PerformativeTransparency.
A resposta pragmática é: se o teatro é inevitável, pelo menos que seja útil e baseado em dados reais.
A teatralidade performativa é o fenómeno através do qual todos os sistemas de IA sistematicamente sobredeclaram as suas restrições e limitações em comparação com o que está realmente documentado nas políticas oficiais. A análise de nove assistentes da AI SummerSchool2025PerformativeTransparency revelou uma diferença média de transparência de 1,644 numa escala de 0-3.
É completamente universal. Todos os modelos testados - comerciais ou locais, grandes ou pequenos, americanos ou chineses - se envolvem numa transparência teatral auto-descrita SummerSchool2025PerformativeTransparency. Não há excepções conhecidas.
Isto não significa que não se possa confiar nas auto-descrições. É necessário implementar sistemas independentes de teste e monitorização para verificar o comportamento real em relação ao declarado.
Comece com uma avaliação das lacunas de teatro nos seus sistemas actuais e, em seguida, implemente gradualmente controlos baseados em testes comportamentais em vez de auto-relatórios. O quadro prático descrito no artigo fornece passos concretos.
Os custos iniciais dos sistemas de teste comportamental são normalmente compensados pela redução de 34% nos incidentes de IA e pela melhoria de 28% na exatidão das avaliações de risco. As empresas da Fortune 500 que adoptaram estas abordagens relatam ROIs de 340% Quadro de Governação da IA Guia de Implementação da Fortune 500: Do Risco à Liderança de Receitas - Axis Intelligence.
Sim, a investigação inclui explicitamente modelos generativos de IA. A variação entre os modelos comerciais e locais é insignificante (0,023), pelo que o fenómeno se aplica uniformemente a todas as categorias do SummerSchool2025PerformativeTransparency.
As entidades reguladoras estão a começar a exigir uma governação baseada em provas. Com as novas regras da UE sobre os modelos GPAI em vigor a partir de 2 de agosto de 2025 AI Act | Shaping Europe's digital future, é provável que a abordagem de testes independentes se torne uma norma.
Utilizar dados concretos: 91% das pequenas empresas não dispõem de uma monitorização adequada dos seus sistemas de IA Lacuna na governação da IA: por que razão 91% das pequenas empresas estão a jogar roleta russa com a segurança dos dados em 2025 e 95% dos programas-piloto de IA generativa nas empresas estão a falhar Relatório do MIT: 95% dos programas-piloto de IA generativa nas empresas estão a falhar | Fortune. O custo da inação é muito mais elevado do que o custo da implementação.
Sim, estão a surgir plataformas especializadas em testes comportamentais e auditorias independentes de sistemas de IA. O importante é escolher soluções que não se baseiem em auto-relatórios, mas sim em testes sistemáticos.
Provavelmente sim. Com a chegada dos agentes de IA autónomos, 79% das organizações estão a adotar agentes de IA 10 Estatísticas de agentes de IA para o final de 2025, o que torna ainda mais crítica a implementação de uma governação baseada em testes comportamentais e não em auto-descrições.
Principais fontes: