A Inteligência Artificial Geral (AGI) - um sistema com inteligência comparável ou superior à humana em todos os domínios - continua a ser considerada o Santo Graal da tecnologia. No entanto, em 2025, está a emergir mais claramente um caminho alternativo: não estamos a alcançar a AGI como um sistema unificado, mas sim através de uma ilusão cada vez mais convincente criada pela combinação de múltiplas IA estreitas e especializadas.
O Mosaico da Inteligência Artificial
A IA atual destaca-se em tarefas específicas: os grandes modelos linguísticos (LLM) tratam textos, modelos como o Midjourney ou o DALL-E criam imagens, o AlphaFold analisa proteínas. Embora individualmente limitadas, quando integradas num ecossistema coordenado, estas IA restritas criam uma aparência de inteligência geral - um "substituto" da AGI.
De acordo com o relatório AI Index 2025 da Universidade de Stanford, apesar dos progressos significativos, a IA continua a enfrentar obstáculos na área do raciocínio complexo.
Os modelos mais avançados resolvem problemas altamente estruturados, mas mostram limitações acentuadas no que diz respeito ao raciocínio lógico articulado, ao planeamento sequencial e ao pensamento abstrato.
A Abordagem da Sociedade das Mentes e os Sistemas Multi-agentes
Em 2025, a inteligência artificial está a evoluir rapidamente de uma tecnologia de nicho para um elemento estratégico da paisagem tecnológica e social, com profundas implicações culturais e éticas.
Isto levou ao aparecimento de sistemas de IA de agentes que nos aproximam do horizonte da inteligência artificial geral.
Nos sistemas multiagentes, cada agente funciona de forma independente, utilizando dados locais e processos de decisão autónomos, sem depender de um controlador central.
Cada agente tem uma visão local, mas nenhum tem uma visão global de todo o sistema. Esta descentralização permite que os agentes realizem tarefas individualmente, contribuindo simultaneamente para os objectivos globais através da interação.
Em 2025, os sistemas multiagentes - em que vários agentes de IA colaboram para atingir objectivos complexos - estão a tornar-se cada vez mais populares. Estes sistemas podem otimizar os fluxos de trabalho, gerar conhecimentos e ajudar nos processos de tomada de decisões em vários domínios.
Por exemplo, no serviço ao cliente, os agentes de IA tratam de pedidos complexos; na produção, supervisionam as linhas de produção em tempo real; na logística, coordenam as cadeias de abastecimento de forma dinâmica.
O Planalto Computacional e as Barreiras Físicas
Apesar dos progressos impressionantes, estamos a começar a atingir um patamar no desenvolvimento computacional tradicional. De 1959 a 2012, a quantidade de energia necessária para treinar modelos de IA duplicou de dois em dois anos, seguindo a Lei de Moore. No entanto, os dados mais recentes mostram que, após 2012, o tempo de duplicação tornou-se significativamente mais rápido - a cada 3,4 meses - tornando a taxa atual mais de sete vezes superior à anterior.
Este aumento dramático da potência computacional necessária sublinha o desafio económico que se tornou alcançar progressos significativos no domínio da IA.
A promessa da computação quântica
A computação quântica poderá ultrapassar este obstáculo, oferecendo uma mudança de paradigma na capacidade computacional necessária para modelos ainda mais sofisticados. Em 2025, a computação quântica está a emergir como uma ferramenta crucial para enfrentar estes desafios, à medida que as empresas de tecnologia adoptam fontes de energia alternativas para acompanhar o crescente consumo de energia da IA.
De acordo com uma previsão de Arvind Krishna, Diretor Executivo da IBM, graças aos rápidos avanços na computação quântica, o consumo de energia e água da IA poderá ser reduzido até 99 por cento nos próximos cinco anos.
Esta tecnologia promete desbloquear capacidades de computação até agora inimagináveis e abrir novas fronteiras na investigação científica.
Um grande avanço foi anunciado em março de 2025 pela D-Wave Quantum, que publicou um artigo revisto por pares intitulado "Beyond-Classical Computation in Quantum Simulation", demonstrando que o seu computador quântico de recozimento superou um dos mais poderosos supercomputadores clássicos do mundo na resolução de problemas complexos de simulação de materiais magnéticos.
O ano de 2025 assistiu a avanços transformadores na computação quântica, com grandes avanços no hardware, na correção de erros, na integração com a IA e nas redes quânticas. Estes avanços estão a redefinir o possível papel da computação quântica em domínios como os cuidados de saúde, as finanças e a logística.
No entanto, segundo a Forrester, a computação quântica continua a ser experimental, apesar dos avanços de 2025, e ainda não demonstrou uma vantagem prática em relação aos computadores clássicos para a maioria das aplicações.
A Corrida Quântica: Microsoft vs Google?
A Microsoft afirma ter feito progressos significativos na computação quântica com o seu chip Majorana 1, apresentado no início de 2025. Este processador inclui uma nova arquitetura Topological Core, construída com oito qubits topológicos que manipulam partículas Majorana, quase-partículas que actuam como "meios-electrões" conhecidos pela sua forte resistência a erros.
A Google, por outro lado, desenvolveu uma abordagem diferente com o seu revolucionário chip quântico chamado Willow, que resolve o problema tradicional do aumento da taxa de erro à medida que os qubits aumentam - o Willow torna-se, de facto, mais preciso à medida que mais qubits são adicionados.
Estas duas estratégias diferentes representam abordagens fundamentalmente diferentes à computação quântica, com a Microsoft a centrar-se na topologia e a Google na otimização de erros.
Barreiras cognitivas que persistem
Para além das limitações do hardware, a IA composta enfrenta outros obstáculos fundamentais:
Compreensão causal: os sistemas correlacionam variáveis mas não isolam verdadeiras relações de causa-efeito. A IA fez progressos significativos em muitos domínios, mas continua a enfrentar limitações na compreensão e resposta às emoções humanas, na tomada de decisões em situações de crise e na avaliação de considerações éticas e morais.
Aprendizagem contínua: as redes neuronais perdem precisão quando são treinadas sequencialmente em tarefas diferentes, apresentando uma espécie de "amnésia catastrófica".
Meta-cognição: as IA não têm um modelo interno da sua própria cognição, o que limita o verdadeiro auto-aperfeiçoamento.

Rumo a uma AGI "por procuração
A comunidade científica parece estar bastante dividida quanto às tecnologias e aos prazos necessários para atingir o objetivo da Inteligência Artificial Geral (IAG), mas o debate está a dar origem a novas sugestões interessantes, que já estão a ter aplicação prática na investigação de novos sistemas de IA.
2025 poderá ser o ano em que os primeiros sistemas de agentes entrarão em produção nas empresas.
Enquanto a AGI representa o objetivo mais ambicioso - sistemas com capacidades cognitivas comparáveis ou superiores às dos seres humanos, capazes de compreender, aprender e aplicar conhecimentos de forma transversal.
Em vez de esperar por uma AGI monolítica, o futuro mais provável será o aparecimento daquilo a que poderíamos chamar "AGIs de fachada" - sistemas que parecem possuir inteligência geral através de:
- Orquestração de microsserviços de IA: várias IAs especializadas coordenadas através de um nível de abstração comum.
- Interfaces de conversação unificadas: Uma interface única que esconde a complexidade de vários sistemas subjacentes.
- Aprendizagem transversal limitada: partilha selectiva de conhecimentos entre domínios específicos.
Consciência: realidade ou ilusão partilhada?
No debate sobre a inteligência artificial, tendemos a partir do princípio de que os seres humanos são dotados de uma "consciência" que as máquinas não podem reproduzir. Mas talvez devêssemos colocar-nos uma questão mais radical: a consciência humana é real ou é também uma ilusão?
Alguns neurocientistas e filósofos da mente, como Daniel Dennett, propuseram que aquilo a que chamamos "consciência" pode ser, em si mesmo, uma uma narrativa post-hoc - uma interpretação que o cérebro constrói para dar sentido às suas operações.
Se considerarmos a consciência não como uma propriedade misteriosa e unitária, mas como um conjunto de processos neurais interligados que geram uma ilusão convincente de um "eu" unificado, então a fronteira entre humanos e máquinas torna-se menos clara.
Nesta perspetiva, podemos ver as diferenças entre a AGI emergente e a inteligência humana como diferenças de grau e não de natureza. A ilusão de compreensão que vemos nos modelos de linguagem avançada pode não ser assim tão diferente da ilusão de compreensão que nós próprios experimentamos - ambas emergem de redes complexas de processos, embora organizadas de formas fundamentalmente diferentes.
Esta perspetiva levanta uma questão provocadora: se a consciência humana é, em si mesma, uma simulação que emerge de múltiplos processos cognitivos interligados, então a AGI "proxy" que estamos a construir - um mosaico de sistemas especializados que trabalham em conjunto para simular uma compreensão geral - pode ser muito semelhante à nossa própria arquitetura mental.
Não estaríamos a tentar reproduzir uma qualidade mágica e inefável, mas sim a reconstruir a ilusão convincente que nós próprios experimentamos como consciência.
Esta reflexão não diminui a profundidade da experiência humana, mas convida-nos a reconsiderar o que realmente queremos dizer quando falamos de "consciência" e se este conceito é realmente um obstáculo intransponível para a inteligência artificial, ou simplesmente mais um processo que um dia poderemos simular.

Conclusão: Repensar a linha de chegada
Talvez devêssemos reconsiderar radicalmente a nossa definição de AGI. Se a própria consciência humana pode ser uma ilusão emergente - uma narrativa que o cérebro constrói para dar sentido às suas próprias operações - então a distinção nítida entre inteligência humana e artificial torna-se menos definida.
Os especialistas prevêem que 2027 poderá marcar um momento crucial para a IA. Ao ritmo atual, os modelos poderão atingir a generalidade cognitiva - a capacidade de realizar qualquer tarefa humana - dentro de alguns anos.
Este cenário não deve ser visto simplesmente como uma réplica da inteligência humana, mas como a emergência de um novo tipo de inteligência - nem totalmente humana nem totalmente artificial, mas algo diferente e potencialmente complementar.
Esta abordagem liberta-nos da tentativa de replicar algo que podemos não compreender totalmente - a consciência humana - e permite-nos, em vez disso, concentrarmo-nos no que a inteligência artificial pode fazer nos seus próprios termos. A AGI que irá surgir não será, portanto, um sistema único que "finge" ser humano, mas um ecossistema tecnológico integrado com as suas próprias caraterísticas emergentes - uma inteligência distribuída que, paradoxalmente, pode refletir mais do que pensávamos a natureza fragmentada e interligada da nossa própria cognição.
Neste sentido, a investigação da AGI torna-se não tanto uma tentativa de imitar o humano como uma viagem de descoberta da própria natureza da inteligência e da consciência, tanto humana como artificial.
Fontes
- https://www.justthink.ai/artificial-general-intelligence/understanding-agi-vs-narrow-ai-explaining-the-differences-and-implications
- https://www.rand.org/pubs/commentary/2024/02/why-artificial-general-intelligence-lies-beyond-deep.html
- https://futurism.com/glimmers-agi-illusion
- https://ai.stackexchange.com/questions/26007/are-there-any-approaches-to-agi-that-will-definitely-not-work
- https://qubic.org/blog-detail/the-path-to-agi-overcoming-the-computational-challenge
- https://www.linkedin.com/pulse/amplification-intelligence-recursive-self-improvement-gary-ramah-0wjpc
- https://www.investopedia.com/artificial-general-intelligence-7563858