L'Illusione del Ragionamento: Il Dibattito che Sta Scuotendo il Mondo dell'AI
Apple pubblica due paper devastanti—"GSM-Symbolic" (ottobre 2024) e "The Illusion of Thinking" (giugno 2025)—che dimostrano come LLM falliscano su piccole variazioni di problemi classici (Torre di Hanoi, attraversamento fiume): "le prestazioni diminuiscono quando alterati solo valori numerici". Zero successi su Torre di Hanoi complessa. Ma Alex Lawsen (Open Philanthropy) replica con "The Illusion of the Illusion of Thinking" dimostrando metodologia fallata: fallimenti erano limiti di token output non collasso ragionamento, script automatici classificavano erroneamente output parziali corretti, alcuni puzzle erano matematicamente irrisolvibili. Ripetendo test con funzioni ricorsive invece di elencare mosse, Claude/Gemini/GPT risolvono Torre di Hanoi 15 dischi. Gary Marcus abbraccia tesi Apple su "distribution shift", ma timing paper pre-WWDC solleva interrogativi strategici. Implicazioni aziende: quanto fidarsi AI per compiti critici? Soluzione: approcci neurosimbolici—reti neurali per pattern recognition+linguaggio, sistemi simbolici per logica formale. Esempio: AI contabilità capisce "quanto speso trasferte?" ma SQL/calcoli/verifiche fiscali = codice deterministico.