![]()
新智元報道
編輯:桃子 好困
LeCun不忍了,三周后從meta「提桶跑路」,臨走前狠扇了硅谷所有人一巴掌:你們信奉的大模型全是泡沫,根本通往不了AGI!
大模型是一條死路,無法通往AGI!
在今天的最新一期深度訪談中,LeCun直言不諱指出:
所謂的ASI路線——不斷訓練LLM,用更多合成數(shù)據(jù)喂模型,雇上幾千人在后訓練階段「管教」系統(tǒng),再折騰出一些RL的新技巧。
在我看來,完全是胡說八道!
這條路根本行不通,而且永遠都不可能成功。
![]()
任職12年,即將暴走meta的65歲圖靈獎得主,在公眾場合的觀點愈加偏激了。
這場近2小時的對談中,LeCun的觀點一針見血——
硅谷對不斷「堆大」LLM的癡迷是一條死路;
搞AI最難的問題在于,它依舊是「阿貓阿狗」的智能,而非類人的水平。
如今,他正把一生的學術(shù)聲譽押注在一條截然不同的AI路線之上,即「世界模型」。
訪談中,LeCun還分享了創(chuàng)業(yè)公司AMI(Advanced Machine Intelligence)正在構(gòu)建的「世界模型」——
在抽象表征空間中進行預測,而不是簡單地像素級輸出。
幾天前,LeCun在與谷歌DeepMind大佬Adam Brown一場激辯中,同樣提出他的經(jīng)典論點:
LLM沒那么聰明,畢竟一只貓或一個孩子僅用少得多的數(shù)據(jù)就能理解世界。
Token預測全是泡沫,物理世界才是真相。
有網(wǎng)友辣評道,「meta在AI領(lǐng)域失敗,LeCun是罪魁禍首」。
還有人表示,「LeCun很聰明,在meta保持沉默現(xiàn)在開始發(fā)聲了」。
![]()
65歲創(chuàng)業(yè),再造一個FAIR
播客開場,主持人問道,「從meta這樣大公司跳出來,從0起步,是什么感覺」?
LeCun坦言,雖然他此前也參與過創(chuàng)業(yè),但這次的AMI意義非凡。這次的獨特之處在于一種新現(xiàn)象,即投資者也愿意為其買單。
這要是放在以往,是不可能的。
歷史上,像貝爾、IBM、施樂PARC這樣的大實驗室,都一同壟斷了企業(yè)的財力。
如今,行業(yè)風向正在轉(zhuǎn)變。FAIR通過開源推動了生態(tài)的發(fā)展,但近年來越來越多實驗室選擇閉源,OpenAI、谷歌,甚至meta也不例外。
在LeCun看來,這種閉源趨勢,不利于真正突破性的研究。
因此,他決定在meta外部創(chuàng)辦AMI,專注于「世界模型」,并計劃延續(xù)開放研究的傳統(tǒng)。
除非你把論文發(fā)表出來,否則就不能稱之為真正的研究。要不然,你很容易陷入一種自欺欺人的狀態(tài)。
![]()
看得出,LeCun這番言論一定程度上,暗示28歲上司Alexandr Wang的做法——
此前曾爆出,F(xiàn)AIR實驗室想要發(fā)論文,必須經(jīng)過MSL批準后才可以。
![]()
LeCun再次強調(diào),「如果真的想要突破,需要讓你的員工發(fā)表論文。沒有別的辦法。這是目前很多行業(yè)正在遺忘的事情」。
![]()
下一步,AMI的目標不僅是研究,還會打造實際的產(chǎn)品,比如與世界模型、規(guī)劃有關(guān)的,并成為智能系統(tǒng)的核心供應商。
接下來的話題,又回到了LeCun老生常談的事情。
LeCun放話:LLM走不通
他明確表示,當前的LLM或基于LLM的AI智能體,處理語言尚可,但在可靠性、數(shù)據(jù)效率、多模態(tài)處理上遠遠不足。
我已經(jīng)說了快十年了,世界模型才是解決這一問題的「正確方法」。
![]()
「世界模型」能夠預測一個動作或一系列動作的后果,然后系統(tǒng)通過優(yōu)化得出一系列動作,即找出哪一系列動作能最好地完成設(shè)定的任務(wù),這就是「規(guī)劃」。
因此,LeCun認為,智能的一個重要部分是能夠預測行動的后果,然后將其用于規(guī)劃。
「世界模型」是設(shè)計用來處理,高維、連續(xù)和嘈雜的模態(tài)數(shù)據(jù),LLM完全不行。
![]()
真正有效的方法是,學習一個抽象的表示空間,消除關(guān)于輸入的不可預測的細節(jié),并在表示空間中進行預測。
這就是,JEPA(聯(lián)合嵌入預測架構(gòu))的想法。
![]()
論文地址:https://arxiv.org/pdf/2509.14252
將近有20年的時間,LeCun一直確信,構(gòu)建智能系統(tǒng)的正確途徑是通過某種形式的「無監(jiān)督學習」。
他回顧了自己的研究歷程——
早在2000年代初中期,便開始探索無監(jiān)督學習,并嘗試通過自編碼器(Autoencoders)來學習表示,但發(fā)現(xiàn)表示包含關(guān)于輸入的所有信息是個錯誤。
后來,他意識到需要「信息瓶頸」(Information Bottleneck),限制表示的信息量。
2015年,ResNet(殘差網(wǎng)絡(luò))出世,徹底解決了深層網(wǎng)絡(luò)架構(gòu)訓練問題,也是從這時起,LeCun開始重新思考:
如何推動實現(xiàn)人類水平的AI?
他意識到,強化學習等方法,基本上無法scaling,且樣本效率極低,于是開始聚焦「世界模型」。
最初嘗試,他在像素級預測視頻,但發(fā)現(xiàn)這行不通,真正的突破在于表示層(Representation Level)進行預測。
JEPA的發(fā)展克服了早期孿生網(wǎng)絡(luò)(Siamese Networks)的模型坍塌(Collapse)的問題,通過Barlow Twins、VICReg優(yōu)化表示空間。
最近的Latent Euclidean JEPA,進一步推進了這一思路。
![]()
論文地址:https://arxiv.org/pdf/2511.08544
對于LLM局限背后的原因,LeCun分享了數(shù)據(jù)質(zhì)量方面的「苦澀的教訓」(Bitter Lesson)。
訓出一個性能還不錯的LLM,需要互聯(lián)網(wǎng)上大約30萬億Token(約10^14字節(jié))的文本數(shù)據(jù)。
LLM需要巨大的內(nèi)存,來存儲這些孤立的事實。
相較之下,這僅相當于大約15,000小時的視頻——YouTube上30分鐘的上傳量。
一個4歲孩子醒著時看到的視覺信息,大約是16,000小時。
去年發(fā)布的V-JEPA 2模型,就是在相當于一個世紀時長視頻數(shù)據(jù)上訓練的,雖然字節(jié)數(shù)更多,但視頻數(shù)據(jù)的冗余性正是自監(jiān)督學習所需的。
現(xiàn)實世界數(shù)據(jù)的結(jié)構(gòu)比文本豐富得多,這也是為什么LeCun堅稱,只靠文本訓練永遠無法達到人類水平的AI。
關(guān)于理想化的「世界模型」,LeCun回應了主持人對《星際迷航》全息甲板(Holodeck)的比喻:
人們誤以為,「世界模型」必須重現(xiàn)世界所有的細節(jié),這不僅錯誤,還會有害。
「世界模型」是在抽象表示空間中的模擬器,只模擬現(xiàn)實中相關(guān)的部分。
![]()
不僅如此,LeCun相信合成數(shù)據(jù)很有用。但有些基本概念是我們通過經(jīng)驗習得的,而不是天生的。
然而,LLM并不真正理解這些,只是被微調(diào)出來給出正確答案,更像是「反芻」而非真懂。
炮轟硅谷單一文化
針對硅谷LLM狂熱的文化,LeCun的批評尤為尖銳。
他指出,AI行業(yè)存在一種危險的「羊群效應」——
競爭太過激烈,大家都害怕走偏路線而落后,于是OpenAI、谷歌、meta、Anthropic等科技巨頭幾乎都在做同一件事。
那便是,瘋狂堆疊LLM。
![]()
這導致,硅谷形成了「單一的文化」,甚至這背后多少帶著點優(yōu)越感。
LeCun警告,一旦深陷「戰(zhàn)壕」,就只能拼命往前沖,因為誰也承擔不起被競爭對手甩開的風險。
但更大的風險是,被完全不同方向、出乎意料的一套技術(shù)顛覆,它甚至可能解決完全不同的問題。
JEPA的理念,即所謂的「世界模型」,恰恰與這條主流路線完全不同,能處理LLM很難應付的數(shù)據(jù)。
LeCun甚至毫不客氣地說——
如果你不想變成硅谷口中「被LLM洗腦了」(LLM-pilled)的人,便不會相信這樣一條路徑:
只要不停地訓練LLM,用更多合成數(shù)據(jù),去授權(quán)更多數(shù)據(jù),再雇上成千上萬的人來做后訓練,在強化學習(RL)上不斷加點新花樣,你就能一路走到ASI。
我認為這完全是扯淡,這條路根本不可能成功!
![]()
「沒錯,你必須逃離那種文化」。
他還透露,即使在硅谷的各家公司內(nèi)部,也有不少人心里很清楚:這條路走不通!
![]()
![]()
因此,擺脫這種單一文化,正是LeCun創(chuàng)辦AMI的動因之一。
他透露,AMI這家公司是全球性的,總部將設(shè)在巴黎,其全球其他幾個地方,包括紐約設(shè)立分辦公室。
AGI是胡扯
「類人AI」還需5-10年
當被問及AGI時間線,LeCun先澄清:不存在「通用智能」這種東西!
這個概念完全沒有意義,因為它是被設(shè)計用來指代人類水平的智能,但人類智能是超級專業(yè)化的。
所以AGI這個概念完全是胡扯。
![]()
話又說回來,他還是認為,我們會擁有在所有領(lǐng)域都和人類一樣好或更好的機器。
「但這不會是一個單一事件,這將是非常漸進的」。
他樂觀地預測道,如果未來兩年,能在JEPA、世界模型、規(guī)劃等方向取得重大進展。
我們可能在5-10年內(nèi),看到接近人類智能,也許是狗的智能水平的AI。
但這已是極度樂觀。
更現(xiàn)實的是,AI歷史上多次出現(xiàn)未預見的障礙,需要我們發(fā)明新概念實現(xiàn)超越。
那可能需要20年,甚至更久。
![]()
有趣的是,LeCun認為最難的部分不是從狗到人類,而是達到狗的水平——
一旦你達到了狗的水平AI,你基本上就擁有了大部分要素。
從靈長類動物到人類,除了大腦的大小差異之外,還缺的是「語言」。
語言基本上由韋尼克區(qū)(Wernicke area)以及布羅卡區(qū)(Broca area)處理。
而LLM已經(jīng)在語言編碼/解碼上表現(xiàn)不錯,或許能充當大腦的韋尼克區(qū)和布羅卡區(qū)。
![]()
LeCun稱,我們現(xiàn)在正在研究的是前額葉皮層,那是「世界模型」所在的地方。
離職meta,三周倒計時
訪談中,LeCun還談及了meta AI的重組。
他表示,Alexandr Wang并非接替他的位置,而是統(tǒng)管meta所有AI相關(guān)研發(fā)和產(chǎn)品,包括四個主要部門:
FAIR(長期研究)
GenAI Lab(專注前沿LLM構(gòu)建)
AI基礎(chǔ)設(shè)施
模型轉(zhuǎn)化為實際產(chǎn)品的部門
重磅的是,LeCun透露,自己將在meta再待三個星期。(估計1月初,正式告別meta了)

FAIR現(xiàn)在由紐約大學Rob Fergus領(lǐng)導,正被推向「更短期的項目」——
較少強調(diào)發(fā)表論文,更多專注于協(xié)助GenAI Lab進行LLM和前沿模型的研究。
GenAI Lab也有一個首席科學家,專注于LLM,其他組織更像是基礎(chǔ)設(shè)施和產(chǎn)品。
看得出,meta重組重心完全放在了LLM,這也是LeCun選擇出來創(chuàng)業(yè)的部分原因。
此外,LeCun還點評了一些大模型公司,包括SSI、Physical Intelligence、Thinking Machines等。
Ilya創(chuàng)立的SSI,甚至包括他們的投資人,都不知道這家公司要做什么。
![]()
給年輕人的建議:別學CS
訪談的最后,主持人問道,「如果你今天重新開始AI職業(yè)生涯,會專注哪些技能和方向」?
LeCun的回答直擊要害,學習那些「保質(zhì)期長」(long shelf life)的知識,以及能讓你「學會如何學習」的東西。
因為技術(shù)演變得太快了,你需要具備快速學習的能力。
他開玩笑地說,「保質(zhì)期長的東西,往往不是計算機科學」。
所以,作為一個計算機科學教授,我勸大家別學計算機科學。
![]()
不過,LeCun還是給出了一些具體的建議,其中包括:
深入學習數(shù)學(微積分、線性代數(shù)、概率論)、建模基礎(chǔ),尤其是能與現(xiàn)實世界聯(lián)系的數(shù)學(工程學科中常見);
電氣工程、機械工程等傳統(tǒng)工程專業(yè),能提供控制理論、信號處理、優(yōu)化等對AI極有用的工具;
物理學也是絕佳選擇:物理學的核心就是「如何表征現(xiàn)實以建立預測模型」——這正是智能的本質(zhì);
計算機科學只需學到能熟練編程和使用計算機的程度(即使未來AI寫代碼,你仍需懂底層);
別忘了學點哲學。
LeCun強調(diào),這些基礎(chǔ)能讓你在AI快速變化中始終站穩(wěn)腳跟,而不是被短期熱點牽著鼻子走。
參考資料:
https://x.com/ziv_ravid/status/2000654377258745912?s=20
https://www.the-information-bottleneck.com/ep20-yann-lecun/
https://youtu.be/ykfQD1_WPBQ
秒追ASI
?點贊、轉(zhuǎn)發(fā)、在看一鍵三連?
點亮星標,鎖定新智元極速推送!





京公網(wǎng)安備 11011402013531號