IT之家 12 月 13 日消息,據(jù)外媒 Futurism 今日報(bào)道,Anthropic 首席科學(xué)家賈里德?卡普蘭警告,人類正站在一個(gè)與 AI 相關(guān)的重大分岔口。
卡普蘭認(rèn)為,決定權(quán)暫時(shí)仍在人類手中,但窗口期正在迅速縮小。他在接受《衛(wèi)報(bào)》采訪時(shí)表示,最遲到 2030 年,甚至可能在 2027 年,人類就必須決定是否讓 AI 模型完全自行訓(xùn)練,并承擔(dān)由此帶來的“終極風(fēng)險(xiǎn)”。一旦觸發(fā)所謂的“智能爆炸”,AI 可能進(jìn)化為通用人工智能,在科學(xué)和醫(yī)學(xué)等領(lǐng)域?yàn)槿祟悗砭薮笫找妫?strong>也可能在失控中不斷增強(qiáng),最終反過來支配人類。
卡普蘭直言,這是一條充滿不確定性的道路,人類并不知道終點(diǎn)在哪里。
![]()
在 AI 領(lǐng)域,卡普蘭并不是孤立的悲觀派。“AI 教父”杰弗里?辛頓曾公開反思自己對 AI 發(fā)展的貢獻(xiàn),并警告 AI 可能對社會造成毀滅性沖擊。OpenAI 的奧爾特曼則認(rèn)為 AI 將消滅整類工作崗位,而 Anthropic CEO 達(dá)里奧?阿莫迪更是直指 AI 可能取代超過一半的初級白領(lǐng)工作,并批評同行刻意淡化這種沖擊。
卡普蘭在就業(yè)問題上與阿莫迪看法接近。他認(rèn)為,AI 在兩到三年內(nèi)就有能力完成大多數(shù)白領(lǐng)任務(wù)。盡管卡普蘭對 AI 與人類目標(biāo)保持一致仍抱有希望,但對讓 AI 訓(xùn)練 AI 的前景高度警惕,并認(rèn)為這是“風(fēng)險(xiǎn)極高”的決策。
卡普蘭稱,一旦人類退出訓(xùn)練過程,就難以判斷 AI 是否已經(jīng)失控,也無法確認(rèn) AI 究竟在做什么。
目前,大模型訓(xùn)練小模型的蒸餾方式已經(jīng)存在,而卡普蘭真正擔(dān)心的是“遞歸自我改進(jìn)”(IT之家注:AI 在沒有人類干預(yù)的情況下不斷自我強(qiáng)化,并在能力上實(shí)現(xiàn)跳躍式增長)。
卡普蘭強(qiáng)調(diào),是否允許這種發(fā)展,最終取決于對 AI 本質(zhì)的判斷。“主要問題在于:AI 對人類有益嗎?有幫助嗎?它們會無害嗎?它們了解人嗎?它們會允許人們繼續(xù)掌控自己的生活和世界嗎?”
包括楊立昆在內(nèi)的多位 AI 研究者并不認(rèn)同大語言模型能夠演化為全能智能體。AI 是否真的提升了工作效率仍存在爭議,一些研究和企業(yè)實(shí)踐顯示,有公司用 AI 智能體取代員工后反而需要重新雇人收場。
卡普蘭也承認(rèn),AI 發(fā)展停滯并非不可能。“也許當(dāng)前的 AI 已經(jīng)是巔峰,但在我們看來,AI 仍會持續(xù)進(jìn)步。”





京公網(wǎng)安備 11011402013531號