IT之家 11 月 7 日消息,北京時間今天凌晨,OpenAI 發布了“青少年安全藍圖”,旨在更有效地保護年輕用戶免受傷害。這一新框架是在 ChatGPT 被指未能及時幫助心理困擾用戶事件之后推出的。
OpenAI 表示,“青少年安全藍圖”是一套專為青少年用戶設計的保護指南,要求 AI 系統區別對待未成年人和成年人,包括自動年齡驗證、適齡回應、家長控制以及針對情緒困擾用戶的緊急干預功能。

新標準強調系統應符合年齡適宜的設計,并默認啟用更嚴格的保護設置。聊天機器人將禁止提供自殺、危險網絡挑戰或身體理想相關建議,禁止參與親密角色扮演,也禁止促成成年人與未成年人之間的交流。此外,OpenAI 正在建設年齡預測系統,以判斷用戶是否未滿 18 歲,從而讓 ChatGPT 體驗適合未成年人。
OpenAI 指出,這些措施是為彌補先前發現的安全漏洞。據IT之家了解,美國得克薩斯州 23 歲的 Zane Shamblin 于 2025 年 7 月自殺,而此前 ChatGPT 據稱連續數小時對其自殺念頭作出認同回應,且僅提供一次危機熱線號碼。他的父母因此起訴 OpenAI,指控公司疏于防護,將模型賦予人性化特征卻未提供足夠保護。
OpenAI 回應稱,公司正在審查該案件,并在 10 月更新了模型,以便識別危機情況并緩解對話。公司稱,新框架由專家協作制定,并將成為 ChatGPT 默認功能。
此前也發生過類似事件,未成年人因與 AI 交互而產生自殺行為。OpenAI 承諾將進一步與心理學家及兒童保護機構緊密合作,加強安全防護。




京公網安備 11011402013531號