IT之家 11 月 21 日消息,蘋果機器學習研究博客于 11 月 19 日發布博文,公布了 M5 芯片的最新性能數據,重點展示了其在運行本地大語言模型(LLM)方面的顯著優勢。
此次性能評估的核心平臺是蘋果此前推出的 MLX,這是一個專為 Apple Silicon 設計的開源機器學習框架,它利用統一內存架構,讓模型能夠在 CPU 和 GPU 之間高效運行。
在核心的文本生成測試中,蘋果使用了 MLX LM 工具包對多款開源大模型進行了基準測試,包括不同參數規模的 Qwen 模型和 GPT OSS 模型。
測試結果顯示,M5 芯片在生成后續文本 token 時的速度比 M4 提升了 19% 至 27%。蘋果指出,這一性能飛躍主要得益于內存帶寬的提升,M5 的內存帶寬高達 153GB/s,相比 M4 的 120GB/s 增加了 28%,這對于內存密集型的 token 生成任務至關重要。
報告進一步解釋了 LLM 推理過程中的兩種不同負載。IT之家援引博文介紹,生成第一個 token 主要受計算能力限制(compute-bound),而生成后續 token 則更依賴于內存速度(memory-bound)。

因此,M5 憑借其更高的內存帶寬,在持續生成文本的場景中展現出明顯優勢。蘋果還強調,配備 24GB 內存的 MacBook Pro 能夠輕松運行參數量達 300 億的 4-bit 量化混合專家模型(MoE),并將推理負載控制在 18GB 以內。
除了文本處理能力,M5 芯片在圖像生成方面的提升更為驚人。報告提到,M5 芯片中集成了全新的 GPU 神經加速器,專門用于處理機器學習負載中至關重要的矩陣乘法運算。
得益于此項硬件升級,M5 芯片執行圖像生成任務的速度是 M4 芯片的 3.8 倍以上。這一巨大飛躍預示著,未來搭載 M5 芯片的 Mac 設備將在創意設計、內容生成等視覺 AI 應用領域提供遠超以往的流暢體驗。






京公網安備 11011402013531號