![]()
機器之心報道
編輯:楊文、澤南
有關大語言模型的理論基礎,可能要出現一些改變了。
斯坦福發了篇論文,徹底顛覆了「LLM 只是模式匹配器」的傳統論調。
它提出的不是擴展技巧或新架構,而是一個讓模型真正具備推理能力的「協調層」。
![]()
論文題目:The Missing Layer of AGI: From Pattern Alchemy to Coordination Physics論文地址:https://arxiv.org/pdf/2512.05765
核心觀點:AGI 的瓶頸在于協調,而非規模
人工智能界正因圍繞大語言模型本質的爭論而分裂。一方面,擴展派認為 LLMs 足以實現 AGI;另一方面,有影響力的批評者認為 LLM「僅僅是模式匹配器」,在結構上不具備推理、規劃或組合泛化能力,因此是死胡同。
作者認為這場爭論建立在一個錯誤的二分法之上,并提出一個顛覆性極強的核心觀點:LLM 的失敗不是因為缺乏推理能力,而是因為我們缺少將其模式與目標綁定的系統。
為了解釋這一點,作者用了一個捕魚隱喻。
海洋代表模型龐大的模式庫,漁夫不用魚餌就撒網,收獲的只是最常見的魚類(訓練數據中的通用模式)。批評者譴責這些未錨定的輸出,但他們觀察到的只是未加誘餌的捕撈所產生的原始統計基線,這不是系統損壞,而是系統在默認模式下的自然表現。
然而,智能行為不僅僅是撒網,它還涉及下餌和過濾。如果誘餌過于稀疏,它就無法吸引特定、稀有的魚,海洋的先驗仍然主導。如果誘餌足夠密集,它傳達了強烈的意圖,轉移了后驗分布,使目標概念壓倒常見先驗;但誘餌并非沒有成本,使用過多的誘餌來確保捕獲是低效的。
在這種觀點中,「缺失的層」就是協調層,它優化了這種權衡:計算轉移后驗所需的精確密度,同時不產生過高成本。
鑒于此,作者提出第三條道路:基礎層加協調層。LLM 是必要的系統- 1 基礎層(模式存儲庫),瓶頸在于缺少系統- 2 協調層,該層將這些模式與外部約束綁定、驗證輸出并維護狀態。
UCCT 理論:推理的相變現象
作者引入了 UCCT(統一認知意識理論)來形式化這一機制。UCCT 最激進的觀點是:LLM 從幻覺到推理的轉變不是一個漸進的、線性的過程,而是一個相變 。
這就像水在達到冰點時會瞬間凝結一樣,當施加給模型的錨定信號達到一個臨界閾值時,模型的行為會發生突變:
低于閾值:模型基于訓練數據的統計學最大似然先驗進行輸出,這表現為無根據的生成或幻覺。高于閾值:目標導向的約束主導了輸出的后驗分布,推理行為被激活,模型表現出受控且可靠的行為。
這種相變的發生由一個物理學式的錨定分數決定,該分數綜合考慮了以下三個關鍵變量:
有效支持:指外部約束(如檢索到的證據、提供的示例、工具的輸出)對目標任務提供的強度和密度。其作用是拉動模型走向目標,有效的錨點越多,分數越高。表征失配:指模型當前的潛在模式(基質)與目標任務或外部約束之間的差異程度。其作用是懲罰模型偏離約束,失配度越大,分數越低。自適應錨定預算:代表在實際操作中,為了達到目標而愿意付出的上下文成本和計算資源。其作用是平衡效率與可靠性,避免為了微小的收益而無限制地投入錨點。
也就是說,幻覺不是模型損壞,而是它在未加誘餌(unbaited)的情況下,簡單地輸出了其模式存儲庫的最大似然先驗;推理則是外部約束將后驗分布從通用的統計模式轉向目標的結果。
因此,只要提供足夠密度的「誘餌」和「漁網」,即協調層的錨定機制,LLM 這個強大的模式基礎層就能被組織起來,執行可靠的推理任務。
架構實現:多智能體協調堆棧
為了將 UCCT 理論轉化為實際的架構,作者構建了 MACI(多智能體協作智能),這是一個協調堆棧,為 LLMs 提供了類似于人類「執行功能」的能力。
MACI 架構通過其三個核心組件,精準地映射并解決了 UCCT 中決定推理相變的三要素:
行為調制的辯論用于最大化有效支持。它讓多個智能體扮演不同角色(質疑者、證據提供者、規劃者)進行辯論,主動檢索、生成和驗證證據,確保審議是多角度且有證據支持的。蘇格拉底式評判 CRIT 用于最小化表征失配。UCCT 中的表征失配 是導致幻覺的根本原因。 MACI 引入了 CRIT 作為專門的蘇格拉底式裁判。CRIT 的核心任務是在推理的每一步中,嚴格審查智能體的提議和論點。它專門查找和過濾那些與事實、先前狀態或任務約束相矛盾的不恰當論點。通過在早期環節就剔除與目標嚴重偏離的聯想式輸出,MACI 積極地最小化了表征失配,從而防止低質量或幻覺性的內容污染推理循環。事務性內存用于優化錨定預算。事務性內存不只是簡單的歷史記錄,它以持久化和事務性方式存儲經過驗證的關鍵中間狀態,避免重復計算和上下文膨脹,實現錨定預算的最優使用。
深度協調模式將推理視為受控過程。智能體進行辯論、交叉檢查、修改方案、提取證據、修復計劃,并跨步驟持續維護狀態,所有這些都由錨定信號指導。這本質上是在底層模式基質之上疊加執行功能 —— 一旦錨定分數跨越閾值,模型的行為就會從聯想式猛然轉向受控式。
論文的核心結論改變了我們對 AGI 路徑的認知:AGI 不會來自于更大的模式之海,它將來自于組織這些模式以形成可靠推理的網、誘餌、過濾器和記憶機制。如果這項技術能夠擴展,LLM 就不再是「自動補全」,而會成為完整推理系統的認知基質。
大語言模型并非通往 AGI 的死胡同,而是實現 AGI 的必要「認知基質」。AGI 的瓶頸不在于 LLMs 的底層模式規模,而在于缺失了一個將這些模式組織和綁定到目標的「協調層」。
作者 Edward Y. Chang 是誰?
![]()
本研究唯一作者 Edward Y. Chang(張智威)是斯坦福大學計算機科學系的兼職教授。此前,他曾任加州大學圣巴巴拉分校(UCSB)終身教授。2006-2012 年,他擔任谷歌研究院總監,率先開展了以數據為中心和并行機器學習的研究,并為 ImageNet 項目做出了貢獻。他還曾在香港科技大學和加州大學伯克利分校任職。張智威擁有斯坦福大學計算機科學碩士學位和電氣工程博士學位。
他的研究興趣涵蓋意識建模、生成式人工智能和醫療保健,并因此榮獲多項獎項,例如谷歌創新獎、 XPRIZE 獎等。他還是 ACM 和 IEEE 會士。





京公網安備 11011402013531號