10月24日消息,美國一名青少年因迷戀人工智能聊天機器人而自殺,他的母親現在指控該機器人的制造者與他的死亡有關。
周三,梅根·加西亞在佛羅里達州聯邦法院對 Character.ai 提起民事訴訟,指控該公司存在過失、非正常死亡和欺詐性貿易行為。Character.ai 開發了一款用于角色扮演的可定制聊天機器人。今年 2 月,她 14 歲的兒子塞維爾·塞澤三世在佛羅里達州奧蘭多去世。加西亞說,在塞澤去世前的幾個月里,塞澤日夜不停地使用聊天機器人。

加西亞在一份新聞稿中表示:一款危險的人工智能聊天機器人應用程序專門針對兒童,它虐待并欺騙我的兒子,操縱他自殺。這場悲劇讓我們一家人悲痛欲絕,但我要警告這些家庭,人工智能技術具有欺騙性和成癮性,并要求 Character.AI、其創始人和谷歌承擔責任。
Character.ai在一條推文中回應道:我們對一名用戶的不幸離世感到心碎,并想向其家人表示最深切的哀悼。作為一家公司,我們非常重視用戶的安全。
該公司否認了訴訟的指控。
塞澤對 Character.ai 開發的聊天機器人非常著迷,他給這個機器人取了個綽號叫丹妮莉絲·坦格利安,這是《權力的游戲》中的角色。
根據加西亞的投訴,他每天用手機給這個機器人發幾十條短信,獨自在房間里和它聊天幾個小時。
加西亞指責 Character.ai 開發的產品加劇了她兒子的抑郁癥,她表示,這是過度使用這家初創公司產品的結果。
訴訟稱,丹妮莉絲曾問塞澤是否制定了自殺計劃。起訴書稱,塞澤承認他有自殺計劃,但他不知道這是否會成功或給他帶來巨大痛苦。
據稱,聊天機器人告訴他:這不是不自殺的理由。
加西亞的律師在一份新聞稿中寫道,Character.ai故意設計、運營和向兒童推銷掠奪性人工智能聊天機器人,導致一名年輕人死亡。
該訴訟還將谷歌列為被告,并稱其為Character.ai的母公司。這家科技巨頭在一份聲明中表示,它只是與Character.ai簽訂了許可協議,并不擁有這家初創公司,也不持有所有權股份。
消費者權益保護非營利組織公共公民研究主管里克·克萊普爾 (Rick Claypool) 表示,開發人工智能聊天機器人的科技公司不能被信任進行自我監管,如果它們未能限制危害,就必須承擔全部責任。
他在一份聲明中表示:現有法律法規已經適用,必須嚴格執行。如果存在漏洞,國會必須采取行動,制止那些利用令人上癮和濫用的聊天機器人剝削年輕和弱勢用戶的企業。





京公網安備 11011402013531號