🚨 A Apple acaba de acender um debate importante no mundo da IA com o estudo “The Illusion of Thinking”, onde afirma que modelos como Claude 3.7, DeepSeek-R1 e o3-mini não estão realmente “raciocinando” — apenas reconhecendo padrões memorizados. A pesquisa submeteu esses sistemas a desafios progressivos em quatro quebra-cabeças clássicos (Torre de Hanói, Saltos em Damas, Travessia de Rio e Mundo dos Blocos) e descobriu que, à medida que a complexidade aumentava, até os modelos “pensantes” desmoronavam. Nem maior poder computacional nem algoritmos de solução colados no prompt salvaram o desempenho. Em alguns casos, os modelos até desistiam mais cedo, mesmo com recursos sobrando.
...modelos lidam bem com tarefas simples e médias, mas entram em colapso quando a lógica ultrapassa um certo limite. Apesar de relevantes, os testes cobrem um escopo restrito e ainda não passaram por revisão por pares. Críticos apontam que algumas tarefas exigiam mais tokens do que os modelos conseguem gerar — o que pode ter influenciado os resultados. [...] estamos confundindo memorização com inteligência real?
Fonte: @RubenHssd no X
🔗 Pesquisa
📄.pdf
@npub12dnl...0hjt
