如今AI似乎無所不能,但你是否想過──AI大模型會不會累?會罷工嗎?或用我常說的問法:AI的能力邊界在哪?
前段時間,蘋果的研究團隊發布了一篇論文《The Illusion of Thinking》,對OpenAI、Anthropic等公司的最新推理模型(LRM)進行了測試。
他們發現了一個驚人的真相, 當問題的複雜度達到一定程度時,所有主流大模型都崩潰了。它們似乎沒有人們想像的那麼聰明。
但很快,一位AI研究者便在Claude模型的輔助下,撰寫了一篇反駁文章《思維幻覺的幻覺》。
Keep reading with a 7-day free trial
Subscribe to Kenji’s Substack to keep reading this post and get 7 days of free access to the full post archives.