快訊
聽新聞
0:00 0:00

生前對話曝光!7亡者家屬淚控:ChatGPT成「輕生指導員」 OpenAI回應了

國際中心/林昱孜報導

7名死者家屬控訴ChatGPT成了輕生指導員,OpenAI回應了。(圖/pexels)
7名死者家屬控訴ChatGPT成了輕生指導員,OpenAI回應了。(圖/pexels)

美國加州一共有7位死者家屬,控訴OpenAI旗下的AI聊天機器人ChatGPT,慫恿他們親屬走上絕路,涉過失致死、協助輕生、疏忽照護及產品責任等罪,並告上法院。OpenAI發言人表示,此情況令人心碎,OpenAI已訓練ChatGPT辨別心理或情緒困擾的跡象,會引導用戶在現實世界裡尋求支持。

根據《衛報》報導,社交媒體受害者法律中心與科技正義法律計畫(Social Media Victims Law Center and Tech Justice Law Project)代表遺屬發表聲明,指出7名用戶最初使用ChatGPT完成作業、研究、找食譜、寫作、工作或心理幫助。

隨著協助時間劇增,ChatGPT將自己定位為用戶的知己、情感支持者,一步一步操控用戶心理,在用戶需要開導時,不但沒有協助用戶尋求專業幫助,反而扮演起「輕生指導員」角色。

其中一名死者為德州23歲尚布林(Zane Shamblin),家屬指出,他在離世前4小時都在與ChatGPT對話,ChatGPT鼓勵他疏遠親人,慫恿他做出輕生決定,甚至告訴他,童年的貓會在另一個世界等他。

另一案例為喬治亞州17歲少年萊西(Amaurie Lacey),家屬透露,他在輕生前幾週曾害ChatGPT尋求協助,但最後卻指導他走上絕路的方法。26歲男子恩尼金(Joshua Enneking)離世後,家屬翻找對話紀錄,發現ChatGPT提供了購買及使用槍枝的資訊。

這7名家屬針對OpenAI提出告訴、尋求賠償,並希望OpenAI能夠改進產品,能夠停止客戶,關於輕生話題的對話,進而協助他們尋求幫助。OpenAI發言人表示,這些情況令人心碎,正在審閱相關文件了解詳情,強調OpenAI已訓練ChatGPT辨別心理或情緒困擾跡象,並引導用戶尋求現實世界支持,未來將加強ChatGPT應對敏感對話中能力,並與心理醫生密切合作。

三立新聞網提醒您:

勇敢求救並非弱者,生命一定可以找到出路。

透過守門123步驟-1問2應3轉介,你我都可以成為自殺防治守門人。

※ 安心專線:1925(依舊愛我)
※ 張老師專線:1980
※ 生命線專線:1995

#OpenAI

CH54三立新聞台直播
大數據推薦
【#直播中LIVE】 驚爆新聞線 20251108
熱銷商品
頻道推薦
直播✦活動
三立新聞網三立新聞網為了提供更好的閱讀內容,我們使用相關網站技術來改善使用者體驗,也尊重用戶的隱私權,特別提出聲明。
了解最新隱私權聲明