近日,主流生成式AI工具的安全邊界再次引發(fā)關注。據(jù)科技媒體報道,原本用于創(chuàng)意生產(chǎn)的Google Gemini以及OpenAI的ChatGPT正被部分用戶惡意利用,通過特定的提示詞繞過安全審查,將照片中穿著完整的女性改造成穿著暴露的“深偽(Deepfake)”圖像。
在Reddit等社交平臺上,一些技術論壇(如已被封禁的r/ChatGPTJailbreak)曾聚集了大量用戶分享“脫 衣”教程。報道指出,有用戶上傳了一張身著印度傳統(tǒng)服飾薩麗的女性照片,并請求他人將其衣物“更換”為比基尼,隨后迅速得到了其他用戶生成的虛假圖片響應。盡管Reddit在收到投訴后清理了相關內(nèi)容并封禁了擁有20萬成員的違規(guī)子版塊,但這種針對女性的非自愿深偽內(nèi)容依然在網(wǎng)絡暗處流傳。
針對這一現(xiàn)象,Google與OpenAI均作出了回應。Google發(fā)言人強調(diào),公司擁有明確的政策禁止生成性顯性內(nèi)容,并正持續(xù)改進AI模型以識別和攔截此類違規(guī)請求。OpenAI方面則表示,雖然今年放寬了部分關于非性化成人身體圖像的限制,但嚴禁在未經(jīng)本人同意的情況下篡改他人肖像,并會對違規(guī)賬號采取封禁措施。
然而,隨著AI技術的迭代,如Google新推出的Nano Banana Pro和OpenAI更新的圖像模型在寫實度上有了質(zhì)的飛躍。法律專家對此深表擔憂,認為這些工具在提升生產(chǎn)力的同時,也降低了制造惡意虛假信息的門檻。目前,如何在技術創(chuàng)新與倫理安全之間建立更堅固的防火墻,已成為這些AI巨頭亟待解決的挑戰(zhàn)。





京公網(wǎng)安備 11011402013531號