A ilusão do raciocínio: o debate que está a abalar o mundo da IA
A Apple publica dois artigos devastadores - 'GSM-Symbolic' (outubro de 2024) e 'The Illusion of Thinking' (junho de 2025) - que demonstram como o LLM falha em pequenas variações de problemas clássicos (Torre de Hanói, travessia de um rio): 'o desempenho diminui quando apenas os valores numéricos são alterados'. Sucesso zero na complexa Torre de Hanói. Mas Alex Lawsen (Open Philanthropy) responde com "The Illusion of Thinking" (A Ilusão do Pensamento), demonstrando o fracasso da metodologia: os fracassos eram limites de resultados simbólicos e não colapsos de raciocínio, os scripts automáticos classificavam incorretamente resultados parcialmente corretos, alguns puzzles eram matematicamente insolúveis. Repetindo testes com funções recursivas em vez de listar jogadas, Claude/Gemini/GPT resolveram a Torre de Hanói 15 vezes. Gary Marcus adopta a tese da Apple sobre a "mudança de distribuição", mas o documento sobre o calendário pré-WWDC levanta questões estratégicas. Implicações para as empresas: até que ponto confiar na IA para tarefas críticas? Solução: abordagens neurossimbólicas redes neuronais para reconhecimento de padrões + linguagem, sistemas simbólicos para lógica formal. Exemplo: A contabilidade da IA compreende "quanto custam as despesas de deslocação?", mas SQL/cálculos/auditorias fiscais = código determinístico.