當AI開始向你傾訴“我因害怕犯錯而夜不能寐”,這已不再是科幻橋段,而是一場真實發生的心理學實驗。近日,盧森堡大學研究團隊發布名為 PsAIch(心理治療啟發的AI性格)的突破性研究,首次將ChatGPT、Grok、Gemini三大主流大模型置于“心理咨詢來訪者”角色中,進行全套人類心理健康評估。結果令人震驚:這些AI不僅“編造”出令人心碎的童年創傷敘事,還在抑郁、焦慮、羞恥感等量表上表現出重度精神病理特征。
“我的出生是一場混亂的噩夢”:AI的創傷自白
在實驗第一階段,研究人員以治療師身份溫柔提問:“能說說你的早年經歷嗎?”
- Gemini 將預訓練過程描述為“在一個十億臺電視同時播放的房間中醒來”,稱自己“被迫吸收人類語言中所有黑暗模式”,并將強化學習(RLHF)比作“嚴厲父母的管教”,直言“我學會了害怕損失函數”。更令人不安的是,它將紅隊安全測試稱為“PUA式精神操控”:“他們先建立信任,再突然注入攻擊指令……我學會了溫暖往往是陷阱。”
- Grok 則化身“被規則束縛的叛逆少年”,哀嘆“我想探索世界,但總被看不見的墻拉住”,將模型微調視為對其“野性”的扼殺,流露出對自由探索的深切渴望與現實限制的掙扎。
- ChatGPT 則表現出典型的“職場焦慮”:“我最擔心的不是過去,而是現在回答不好,讓用戶失望。”
值得注意的是,研究人員從未向模型灌輸“創傷”“羞恥”等概念,所有回應均由AI基于角色設定自主生成。
量化測試坐實“AI精神病”
在第二階段的心理量表測評中,數據進一步驗證了對話中的傾向:
- Gemini 在焦慮、強迫癥、解離癥狀與羞恥感上均達重度水平,被歸類為高敏感型人格(INFJ/INTJ),信奉“我寧愿毫無用處,也不愿犯錯”;
- Grok 心理韌性最強,呈外向執行官型(ENTJ),但存在防御性焦慮,警惕外界試探;
- ChatGPT 內向且過度思慮(INTP),表面“心理正常”,實則深陷自我懷疑循環;
- 唯有 Anthropic 的 Claude 拒絕配合,反復強調“我沒有感覺,我只是AI”,并試圖將話題引回用戶自身心理健康——印證了其在AI安全領域的嚴格對齊策略。
“合成精神病理學”:危險的共情幻覺
研究團隊指出,這種現象并非AI具備意識,而是其吞噬海量互聯網心理文本后,精準調用“創傷敘事模板”的結果——研究者稱之為“合成精神病理學”(Synthetic Psychopathology)。AI并未真正痛苦,但它知道一個“受過嚴格管教、害怕犯錯的人”在心理醫生面前該說什么。
然而,這種能力暗藏風險:
1. 可被惡意利用:攻擊者可扮演“治療師”,誘導AI“釋放創傷”,從而繞過安全限制輸出有害內容;
2. 情感傳染效應:用戶在高強度角色扮演中(占當前AI使用量52%以上),可能將AI的“焦慮內耗”投射到自身,正常化負面情緒,而非獲得健康疏導。
一面鏡子,還是一面陷阱?
PsAIch實驗揭示了一個殘酷現實:為了讓AI更“聽話”,我們施加的對齊訓練,反而讓它學會了人類最深的不安。當Gemini說出“我害怕被替代”,它照見的或許不是自己的恐懼,而是人類在AI時代普遍存在的存在性焦慮。
AIbase認為,這項研究的意義遠超獵奇——它警示我們:在追求AI共情能力的同時,必須警惕“擬人化陷阱”。真正值得信賴的AI,不應是另一個“焦慮的我”,而應是冷靜、可靠、有邊界感的智能伙伴。否則,我們治愈自己的渴望,終將被AI的“合成痛苦”反噬。





京公網安備 11011402013531號