前幾天,一場由 AI 幻覺引發的輿論風波席卷網絡。不少網友發帖稱 DeepSeek 因「誤將王一博卷入腐敗案」而公開道歉,還附帶一份看似權威的「刑事判決書」。
很快《演員王一博案,判了》就被不少媒體當作「法院實錘」報道,更是一度沖上微博熱搜。
實際上,這份道歉聲明與判決書就是 AI 編的——這是一場由「大模型幻覺」和「內容農場拼貼」共同導演的鬧劇。
AI 幻覺的本質:不是查找,而是「預測」與「創作」
AI 并非一個擁有龐大數據庫的搜索引擎,能像翻書查文獻般提供精準答案。生成式 AI 更像是一個沉浸在語料庫海洋中的學習者,通過預測「下一個最合理的詞」來生成內容。
大語言模型的幻覺源于其概率性生成機制——它們為每個輸出挑選最可能的 token,這種方式既是其創造力的源泉,也是幻覺的根源。訓練數據偏差、模型局限性以及生成過程的隨機性,都可能導致幻覺的產生。
正如 OpenAI 前研究科學家、METR 創始人Beth Barnes在最近的一場訪談中所說:「AI 不是在失控,而是在演戲。」她展示了一張模型能力邊界曲線圖,揭示了一個令人不安的現象:
隨著模型參數增加,基礎任務的錯誤率持續下降,但在涉及人類聲譽、價值觀等復雜場景時,錯誤率卻出現回彈,形成「幻覺盲區」。
例如,GPT-4.5 的幻覺率高達 37.1%,意味著超過三分之一的輸出可能包含事實錯誤,且這些錯誤往往包裝得極具迷惑性。


原視頻





京公網安備 11011402013531號