Porque é que a matemática é difícil (mesmo quando se é uma IA)
Os modelos linguísticos não sabem memorizar resultados como nós memorizamos o pi, mas isso não faz deles matemáticos. O problema é estrutural: aprendem por semelhança estatística, não por compreensão algorítmica. Mesmo os novos "modelos de raciocínio", como o o1, falham em tarefas triviais: conta corretamente o "r" em "morango" após segundos de processamento, mas erra quando tem de escrever um parágrafo em que a segunda letra de cada frase constitui uma palavra. A versão premium de 200 dólares por mês demora quatro minutos a resolver o que uma criança faz instantaneamente. O DeepSeek e o Mistral em 2025 continuam a contar mal as letras. A solução emergente? Abordagem híbrida - os modelos mais inteligentes já perceberam quando devem chamar uma calculadora real em vez de tentarem fazer o cálculo sozinhos. Mudança de paradigma: a IA não tem de saber fazer tudo, mas tem de orquestrar as ferramentas certas. Paradoxo final: o GPT-4 pode explicar-lhe brilhantemente a teoria dos limites, mas engana-se nas multiplicações que uma calculadora de bolso resolve sempre corretamente. Para a educação matemática, são excelentes - explicam com uma paciência infinita, adaptam exemplos, decompõem raciocínios complexos. Para cálculos exactos? Confie na calculadora, não na inteligência artificial.