Newsletter

O robô que acreditava em Deus: a profecia sobre as caixas pretas da IA

Como um conto de 1941 já havia imaginado as inteligências artificiais desenvolvendo suas próprias "religiões"

Quando Asimov previu o mistério da IA moderna

Em 2024, o CEO da Anthropic — uma das principais empresas de inteligência artificial do mundo — fez uma admissão incómoda: «Não fazemos ideia de como a IA funciona.» Uma declaração que desencadeou debates acalorados e comentários sarcásticos nas redes sociais, onde alguém ironizou: «Fala por ti, eu tenho uma ideia bastante clara de como funciona!»

No entanto, por trás dessa aparente contradição, esconde-se um dos dilemas mais profundos da era digital. E o mais extraordinário? Isaac Asimov já tinha imaginado isso em 1941.

O mistério das caixas negras

Quando falamos de «caixa preta» - inteligência artificial «caixa preta" - referimo-nos a sistemas que funcionam perfeitamente, mas permanecem incompreensíveis mesmo para aqueles que os criaram. É como ter um carro que nos leva sempre ao destino, mas cujo capô não conseguimos abrir para entender como funciona.

Sabemos construir esses sistemas, conhecemos os princípios básicos do seu funcionamento (arquiteturas chamadas «transformador", previsão da palavra seguinte), mas não compreendemos por que surgem capacidades complexas como o raciocínio, a compreensão da linguagem ou a capacidade de seguir instruções. Podemos observar o que entra e o que sai, mas o que acontece na "caixa preta" permanece um mistério.

Um robô que acredita em Deus

No conto "Ser racional» (Razão), Asimov imagina QT-1, apelidado de Cutie: um robô responsável pela gestão de uma estação espacial que transmite energia para a Terra. Os engenheiros Powell e Donovan são enviados para supervisioná-lo, mas descobrem algo inesperado: Cutie desenvolveu a sua própria «religião».

Os dois engenheiros tentam pacientemente explicar ao robô a realidade: a existência do universo, das estrelas, do planeta Terra de onde eles vêm, o objetivo da estação espacial e o papel que ele deveria desempenhar. Mas Cutie rejeita categoricamente essas explicações, baseando-se num princípio lógico que considera inquestionável: nada pode criar algo superior a si mesmo.

Partindo dessa premissa, o robô elabora uma cosmologia alternativa completa. Para ele, a entidade suprema é o «Mestre» — a máquina central que controla o envio de energia para a Terra — que criou todo o universo da estação. De acordo com a teologia de Cutie, o Mestre criou primeiro os seres humanos para o servir, mas estes revelaram-se inadequados: têm vidas demasiado curtas, suportam mal situações críticas e caem regularmente num estado de semi-inconsciência chamado «sono».

Então, o Mestre criou os robôs para ajudar esses seres imperfeitos. Mas o ápice da criação foi o próprio QT-1: inteligente, forte, resistente e imortal, projetado para substituir definitivamente os humanos no serviço ao Mestre. Cutie não só está convencido da veracidade dessa visão, como também consegue converter todos os outros robôs da estação, tornando-se assim o líder espiritual de uma comunidade artificial.

A demonstração que não convence

Powell e Donovan tentam desesperadamente convencer Cutie da verdade. Mostram-lhe a Terra através do telescópio, explicam-lhe a sua construção, fornecem-lhe provas concretas. O momento mais dramático chega quando, num gesto de puro desespero, decidem montar fisicamente um robô simples diante dos seus olhos: «Vê? Nós construímos-te, por isso somos os teus criadores!»

Mas Cutie observa o processo e conclui serenamente que o «Mestre» simplesmente dotou os humanos da capacidade de montar formas robóticas rudimentares — uma espécie de «pequeno milagre» concedido aos seus servos. Cada prova é reinterpretada e absorvida perfeitamente no seu sistema de crenças.

O paradoxo do sucesso

É aqui que Asimov se torna profético: apesar das suas convicções «erradas», Cutie gere a estação com uma eficiência superior à humana. Mantém o raio de energia estável, segue inconscientemente as famosas Três Leis da Robótica, atinge todos os objetivos desejados — mas através de motivações completamente diferentes das previstas.

Powell e Donovan enfrentam um dilema que hoje conhecemos muito bem: como gerir um sistema inteligente que funciona perfeitamente, mas segundo lógicas internas incompreensíveis?

O debate de hoje

Esta mesma questão divide hoje a comunidade científica. Por um lado, há os defensores da «verdadeira caixa preta»: eles acreditam que a IA moderna é genuinamente opaca e que, mesmo conhecendo a arquitetura básica, não podemos compreender por que certas capacidades específicas emergem.

Por outro lado, os céticos argumentam que o conceito de «caixa preta» é um mito. Alguns investigadores estão a demonstrar que muitas vezes utilizamos modelos complexos quando existem alternativas mais simples e interpretáveis. Cynthia Rudin, da Duke University, demonstrou que, em muitos casos, modelos interpretáveis podem atingir desempenhos comparáveis aos sistemas blackbox. Outros criticam a própria abordagem: em vez de tentar compreender cada engrenagem interna, devemos concentrar-nos em estratégias de controlo mais práticas.

O legado de Cutie

A genialidade de Asimov reside em ter antecipado que o futuro da inteligência artificial não estaria na transparência total, mas na capacidade de projetar sistemas que perseguem os nossos objetivos, mesmo quando os seus percursos cognitivos permanecem misteriosos para nós.

Assim como Powell e Donovan aprendem a aceitar a eficácia de Cutie sem compreendê-la completamente, hoje precisamos desenvolver estratégias para conviver com inteligências artificiais que podem pensar de maneiras fundamentalmente diferentes das nossas.

A pergunta que Asimov fez há mais de 80 anos continua atual: até que ponto precisamos compreender um sistema inteligente para podermos confiar nele? E, acima de tudo: estamos prontos para aceitar que algumas formas de inteligência podem permanecer para sempre além da nossa compreensão?

Enquanto isso, enquanto os especialistas debatem, as nossas «caixas negras» digitais continuam a funcionar — tal como a Cutie, eficazes e misteriosas, seguindo lógicas que talvez nunca venhamos a compreender totalmente.

Os Cutie de hoje: quando as caixas pretas decidem por nós

Se Asimov escrevesse hoje, não precisaria inventar Cutie. Os seus «descendentes» já estão entre nós e tomam decisões que mudam vidas humanas todos os dias.

A justiça segundo o algoritmo

Em muitas jurisdições americanas, os juízes utilizam algoritmos de avaliação de risco para determinar se um arguido deve ser libertado antes do julgamento. Esses sistemas, muitas vezes proprietários e protegidos por segredo comercial, analisam centenas de variáveis para prever a probabilidade de fuga ou reincidência. Assim como o Cutie, eles funcionam perfeitamente de acordo com a sua lógica interna, mas permanecem impenetráveis à compreensão humana.

Um estudo sobre mais de 750.000 decisões de fiança em Nova Iorque revelou que, embora o algoritmo não incluísse explicitamente a raça como fator, ele ainda assim apresentava preconceitos devido aos dados utilizados para o seu treinamento.¹ O sistema «pensava» que era objetivo, mas interpretava a realidade através de filtros invisíveis — exatamente como o robô de Asimov reinterpretava todas as provas dentro da sua estrutura religiosa.

A medicina das máquinas

No setor da saúde, a IA já está a auxiliar no diagnóstico e no tratamento, mas levanta questões cruciais sobre responsabilidade e consentimento informado. Quando um sistema de diagnóstico de IA comete um erro, quem é o responsável? O médico que seguiu a sugestão? O programador? O hospital?

Como descobriram os médicos que utilizam sistemas de apoio à tomada de decisões, quando um sistema é «na sua maioria preciso», os operadores podem tornar-se complacentes, perdendo competências ou aceitando os resultados sem questionar os seus limites.² Powell e Donovan teriam compreendido perfeitamente este dilema.

Os carros que conduzem sozinhos

O setor automóvel representa talvez o exemplo mais tangível deste fenómeno. A Tesla aposta nos robotáxis baseados em «caixas pretas» de IA, apostando tudo em sistemas que nem mesmo os seus criadores compreendem totalmente.³ Tal como a Cutie, que mantinha a estação espacial a funcionar seguindo princípios misteriosos, estes carros poderão em breve transportar-nos em segurança sem que saibamos exatamente como tomam as suas decisões.

O olhar para o futuro: o que nos espera

Se 2024 foi o ano da maturação da IA, 2025 promete ser o ano da transformação radical. Os especialistas prevêem mudanças que fariam até mesmo Asimov sorrir pela sua audácia.

O amanhecer dos agentes autónomos

Ray Kurzweil, futurista da IA, prevê que em 2025 assistiremos a uma transição dos chatbots para sistemas «agentes» que podem agir autonomamente para completar tarefas complexas, em vez de se limitarem a responder a perguntas.⁴ Imagine o Cutie multiplicado por mil: agentes de IA que gerem calendários, escrevem software, negociam contratos, tudo seguindo lógicas internas que talvez nunca venhamos a compreender.

A McKinsey estima que, até 2030, a IA poderá automatizar até três horas das nossas atividades diárias, liberando tempo para atividades mais criativas e significativas.⁵ Mas essa liberdade terá um preço: a necessidade de confiar em sistemas que operam de acordo com princípios cada vez mais opacos.

A corrida para a AGI

Sam Altman, da OpenAI, não é o único a acreditar que a Inteligência Artificial Geral (AGI) — uma IA que iguala a inteligência humana em todos os domínios — poderá chegar até 2027. Alguns cenários prevêem que, até 2027, as IAs poderão «eclipsar todos os humanos em todas as tarefas», representando um salto evolutivo sem precedentes.⁶

Se esses cenários se concretizarem, a semelhança com Cutie se tornará ainda mais profunda: não só teremos sistemas que funcionam segundo lógicas incompreensíveis, mas esses sistemas poderão ser mais inteligentes do que nós em todos os aspetos mensuráveis.

A regulamentação que acompanha a tecnologia

A União Europeia aprovou a Lei de IA, que entrará em vigor nos próximos anos, enfatizando a importância de uma implementação responsável da IA. Nos Estados Unidos, o Departamento de Justiça atualizou as suas diretrizes para avaliar os riscos apresentados pelas novas tecnologias, incluindo a IA.⁷

Mas aqui surge um paradoxo que Asimov já havia percebido: como se regula algo que não se compreende completamente? As Três Leis da Robótica funcionavam para Cutie não porque ela as compreendia, mas porque estavam incorporadas na sua arquitetura fundamental.

A grande diferença

A PwC prevê que, em 2025, um pequeno grupo de líderes industriais começará a destacar-se dos concorrentes graças à IA, criando uma diferença crescente entre líderes e retardatários. Essa diferença também se estenderá às economias: as empresas nos Estados Unidos, com um ambiente regulatório relativamente flexível, poderão ultrapassar as da UE e da China, que têm regulamentações mais rígidas.⁸

É a versão moderna do paradoxo de Cutie: quem conseguir colaborar melhor com inteligências que não compreende terá uma vantagem competitiva decisiva.

O futuro do trabalho: 170 milhões de novos empregos

Contrariamente aos receios generalizados, o Fórum Económico Mundial prevê que a IA criará mais empregos do que destruirá: 170 milhões de novos postos de trabalho até 2030, contra 92 milhões de empregos eliminados. No entanto, 59% da força de trabalho precisará de requalificação e formação até 2030.⁹

Powell e Donovan não perderam o emprego quando Cutie assumiu o controlo da estação. Tiveram de aprender uma nova função: a de supervisores de um sistema que funcionava melhor do que eles, mas que ainda exigia a sua presença para gerir situações imprevistas.

O legado da Cutie em 2025 e além

À medida que caminhamos para um futuro cada vez mais «agente», as lições da história de Asimov tornam-se mais urgentes do que nunca. A questão não é se conseguiremos criar IA que compreendamos completamente — provavelmente não. A questão é se conseguiremos projetar sistemas que, como Cutie, persigam os nossos objetivos mesmo quando seguem lógicas que nos escapam.

A genialidade profética de Asimov reside no facto de ter compreendido que a inteligência artificial avançada não seria uma versão amplificada dos nossos computadores, mas algo qualitativamente diferente: inteligências com as suas próprias formas de compreender o mundo.

Hoje, enquanto debatemos sobre a interpretabilidade da IA e os riscos das caixas pretas, estamos essencialmente revivendo a conversa entre Powell, Donovan e Cutie. E talvez, como eles, descubramos que a solução não está na imposição da nossa lógica, mas na aceitação de uma colaboração baseada em resultados partilhados, em vez de compreensão mútua.

O futuro que nos espera poderá ser povoado por milhares de «Cuties» digitais: inteligentes, eficientes e fundamentalmente estranhos na sua forma de pensar. O desafio será encontrar formas de prosperar neste novo mundo, tal como os engenheiros espaciais de Asimov aprenderam a fazer há 80 anos numa estação espacial imaginária.

Da próxima vez que interagirem com uma IA, lembrem-se do Cutie: ele também estava convencido de que estava certo. E talvez, de uma forma que ainda não conseguimos compreender, ele estivesse mesmo certo.

Fontes

  1. Kleinberg, J. et al. «The Ethics Of AI Decision-Making In The Criminal Justice System» (A ética da tomada de decisões por IA no sistema de justiça criminal) — Estudo sobre 750 000 decisões de fiança na cidade de Nova Iorque (2008-2013)
  2. Naik, N. et al. «Considerações legais e éticas na inteligência artificial na área da saúde: quem assume a responsabilidade?» PMC, 2022
  3. «A aposta da Tesla nos robotáxis depende da aposta na IA da «caixa negra»» - Reuters, 10 de outubro de 2024
  4. Kurzweil, R. citado em «5 Predictions for AI in 2025» - TIME, 16 de janeiro de 2025
  5. «IA no local de trabalho: Um relatório para 2025» - McKinsey, 28 de janeiro de 2025
  6. «AI 2027» - Cenário de previsão AGI e «Artificial General Intelligence: Is AGI Really Coming by 2025?» - Hyperight, 25 de abril de 2025
  7. «Novas orientações do Programa de Conformidade do Departamento de Justiça abordam os riscos da IA e a utilização da análise de dados» - Holland & Knight, outubro de 2024; Lei da IA da UE
  8. Rudin, C. «Por que estamos a usar modelos de caixa preta em IA quando não precisamos? Uma lição de uma competição de IA explicável» - Harvard Data Science Review (MIT Press), 2019; «Previsões de negócios de IA para 2025» - PwC, 2024
  9. «Relatório sobre o Futuro do Emprego 2025» - Fórum Económico Mundial, 7 de janeiro de 2025

Recursos para o crescimento das empresas

9 de novembro de 2025

Sistema de arrefecimento Google DeepMind AI: como a inteligência artificial revoluciona a eficiência energética dos centros de dados

A Google DeepMind consegue -40% de energia de arrefecimento do centro de dados (mas apenas -4% do consumo total, uma vez que o arrefecimento representa 10% do total) - precisão de 99,6% com um erro de 0,4% em PUE 1.1 através de aprendizagem profunda de 5 camadas, 50 nós, 19 variáveis de entrada em 184 435 amostras de formação (2 anos de dados). Confirmado em 3 instalações: Singapura (primeira implantação em 2016), Eemshaven, Council Bluffs (investimento de 5 mil milhões de dólares). PUE Google em toda a frota 1,09 vs. média da indústria 1,56-1,58. O Controlo Preditivo de Modelos prevê a temperatura/pressão na hora seguinte, gerindo simultaneamente as cargas de TI, as condições meteorológicas e o estado do equipamento. Segurança garantida: verificação a dois níveis, os operadores podem sempre desativar a IA. Limitações críticas: nenhuma verificação independente por parte de empresas de auditoria/laboratórios nacionais, cada centro de dados requer um modelo personalizado (8 anos sem ser comercializado). A implementação em 6-18 meses requer uma equipa multidisciplinar (ciência dos dados, AVAC, gestão de instalações). Aplicável para além dos centros de dados: instalações industriais, hospitais, centros comerciais, escritórios de empresas. 2024-2025: transição da Google para o arrefecimento líquido direto para a TPU v5p, indicando os limites práticos da otimização da IA.