智通財經APP獲悉,英偉達和xAI公司共同表示,沙特阿拉伯正在建設的一座大型AI數據中心設施不久后將配備數十萬顆英偉達高性能AI芯片,而特斯拉CEO埃隆·馬斯克旗下的AI超級獨角獸——xAI將成為其首位大型客戶。此外,除了購置英偉達AI GPU算力集群,沙特“主權AI系統”Humain還將斥巨資購入AMD以及高通所開發的AI芯片以及AI軟硬件協同系統。
xAI創始人馬斯克和英偉達首席執行官黃仁勛在周三出席了于華盛頓特區舉行的美沙投資論壇。雙方的這一最新公告是在此前深度合作基礎上進一步加速推進。今年5月,英偉達曾表示,將向沙特的Humain數據中心提供耗電量達500兆瓦的AI芯片算力集群。
總部位于沙特的這家主權財富基金所支持的AI初創公司Humain同樣表示,這一聲明是在5月達成的合作基礎上進一步延伸。在美東時間周三,Humain方面表示,該項目將包括至少大約60萬顆英偉達AI芯片,主要以Blackwell/Blackwell Ultra架構AI GPU算力集群為主。
近期風頭正盛的AI初創公司Humain于今年早些時候成立,隸屬于沙特阿拉伯主權財富基金——沙特公共投資基金(Saudi Public Investment Fund),堪稱是全球“主權AI系統”的最佳典范。在黃仁勛與美國總統唐納德·特朗普一同訪問沙特時,最初在5月宣布了建設該大型數據中心的沙特AI雄心壯志雛形,未來還將采購來自AMD與高通的AI芯片。
“你能想象嗎,一家營收大約為0億美元的剛剛創立的AI初創公司,現在要為馬斯克建一座超大規模AI數據中心。”黃仁勛在華盛頓接受媒體采訪時說道。
主權AI大勢來襲
這座設施是英偉達所謂“主權AI”(sovereign AI)的最顯著案例之一。“AI芯片霸主”英偉達的高管們曾多次公開表示,各國政府將越來越需要建設用于AI訓練/推理的主權級別超大規模AI數據中心,以保護其國家安全和文化。這也意味著,在少數幾家超大規模云計算廠商之外,英偉達昂貴AI芯片的潛在市場可謂極為龐大。
英偉達CEO黃仁勛在今年多次提到“主權AI”,暗示國家級人工智能硬件需求激增。因此,除了向超大規模云計算服務商,比如微軟和亞馬遜以及谷歌提供AI GPU,英偉達現在也在努力尋求業務多元化,“主權AI”無疑是黃仁勛最重視的領域之一。
黃仁勛在接受采訪時曾經表示,包括印度、日本、法國和加拿大在內的國家都在談論投資“主權級別人工智能系統”的重要性。“從他們的自然資源,再到獨家的保密數據庫,被視作應該為他們的國家進行提煉和生產。對主權人工智能能力的認可是全球性的理念。”
而英偉達憑借“CUDA軟硬件協同平臺+高性能AI GPU”共同構成的無比強大護城河以及AI開發者生態,英偉達當前需求最為火爆的Blackwell/Blackwell Ultra架構 AI GPU無疑成為全球各政府首選的AI底層基礎硬件。
英偉達周三公布的最新財報顯示,下一季度的營收展望超出華爾街預期,且英偉達Q3總營收同比激增62%,達到570億美元這一歷史最高營收規模;隨著全球布局AI的浪潮如火如荼,英偉達數據中心業務部門第三財季實現營收512億美元,同比激增66%,環比增長25%,可謂全面擊潰近期風靡市場的“AI泡沫論調”,在極大程度上緩解了股票市場投資者們對前所未有的全球AI支出熱潮即將大舉退潮的擔憂情緒。
英偉達強勁業績報告凸顯出,OpenAI、xAI、Anthropic 以及Palantir等AI應用端領軍者,抑或聚焦于“主權AI系統”的各大政府部門繼續斥巨資建設AI數據中心,全球布局人工智能的這股狂熱浪潮未出現絲毫的消退跡象。
“關于人工智能泡沫的說法很多,但從我們的角度來看,我并未看到泡沫,關于AI算力需求所有的實際情況截然不同。”黃仁勛在業績電話會議上表示。“最新一代Blackwell架構AI GPU銷量遠超預期,云端GPU已售罄,AI訓練和推理的計算需求持續加速增長,均呈指數級增長。我們已進入AI時代的良性循環。”
黃仁勛出現在一場由美國總統特朗普支持的重大投資活動上,也進一步表明本屆政府對AI的重點關注。隨著英偉達管理層積極游說以獲取未來向中國出口AI芯片的白宮許可證,黃仁勛已經與這位重返白宮的美國總統逐漸熟絡。
在宣布這一協議時,馬斯克——他在特朗普第二屆政府早期是一位重要人物,在提到AI數據中心規模時短暫口誤,將其按功率單位兆瓦說錯,錯誤將兆瓦表達成吉瓦。他隨后不久開玩笑表示,計劃將數據中心搞成大1000倍的方案“只能以后再說了”。“那得花上大概八萬億美元。”馬斯克當時打趣道。
不僅與英偉達合作! Humain還將攜手其他芯片巨頭共創AI盛世
據了解,Humain不僅配置英偉達高性能AI GPU。英偉達長期以來最強勁競爭對手——AMD,以及高通公司(Qualcomm)也將向Humain公司大規模銷售AI芯片以及AI軟硬件協同系統。AMD 首席執行官蘇姿豐(Lisa Su)和高通首席執行官安蒙(Cristiano Amon)均出席了本周特朗普政府為沙特王儲穆罕默德·本·薩勒曼舉辦的國宴,在宴會結束之后,王儲表示,沙特對美國的投資將從6000億美元提升至1萬億美元。
Humain表示,預計到2030年,AMD將提供可能高達1吉瓦電力功率的AI芯片算力集群。該公司表示,將提供其用于AI訓練/推理的下一代AI算力集群設備——Instinct MI450 AI GPU集群。AMD則補充表示,思科公司(Cisco)將為大型數據中心提供額外的核心基礎設施。
據悉,MI450性能相比AMD上一代 MI300X / MI350X,堪稱“內存怪獸”級別的AI性能躍遷,工藝制程方面,采用臺積電2nm(N2)最先進制程,基于CDNA 5先進架構,顯存帶寬相比MI300X,從5.3 TB/s大幅躍升至19.6 TB/s,顯存容量從192GB躍升至432GB。對 OpenAI 這種正在做超大規模多模態+超長上下文 LLM 的最大型玩家來說,超大顯存 + 超大帶寬的價值,很多時候比單卡多幾TOPS算力更具性價比,并且對于OpenAI等AI應用開發者們來說,這也是在英偉達Blackwell AI GPU體系之外,再筑一條以“超大顯存/帶寬+更先進制程”為核心的第二AI GPU算力戰線。
高通則計劃向Humain銷售其10月首次發布的全新數據中心高性能AI芯片,名為AI200以及AI250。高通表示,Humain將部署電力功率規模約為200兆瓦的高通芯片。
高通早在2019–2020 年就推出過面向數據中心/邊緣推理的 Cloud AI 100 系列(后續有 Cloud AI 100 Ultra),此次重磅新推出的AI200 / AI250—首次把產品做成機架級(rack-scale)方案,單卡最高768GB LPDDR、重點面向AI大模型高能效推理,并宣稱將能夠通過體系結構(如 near-memory compute)能夠大幅降低AI數據中心運營商們的AI推理算力集群“總擁有成本”(TCO)。
高通近期新發布AI200/AI250兩款AI推理加速器以及對應的整機/機架級AI算力集群解決方案,則自2026年開始,有望帶動數據中心芯片業務成為高通業績增長的全新“超級引擎”。AI200/AI250 面向AI數據中心機房級別AI推理算力集群,屬于AI專用加速器(AI ASIC)技術路線思路,目標對標谷歌TPU;AI200/AI250 和谷歌TPU 同屬“ASIC專用推理/訓練加速器”技術家族(高通強調推理與TCO/能效)。





京公網安備 11011402013531號