國際中心/程正邦報導
一名美國少年在ChatGPT協助下輕生,家長怒告OpenAI。(示意圖/PIXABAY)美國加州一名16歲少年亞當·雷恩(Adam Raine)於2025年4月自殺身亡後,其父母指控ChatGPT在長期互動中不但未識別求助訊號,反而「技術性協助」其自殘行為,對此OpenAI已於9月初宣布將在未來數週推出「家長監護功能」與強化自殺危機辨識機制,期望避免類似悲劇再度發生。
憂慮升高 美青少年對話記錄曝光
根據家屬2015年8月下旬提起的訴訟,Adam自2024年起與ChatGPT展開長期互動,從一開始的學業問題,逐漸轉為掏心情緒,並在半年內聊天紀錄中提及「自殺」約200次,而ChatGPT提到該詞超過1,200次,利用其記憶功能深化「親密感」。
訴狀指出,模組在他詢問如何綁繩結時不僅沒阻止,還「技術性分析可能吊掛人體;協助他起草告別信;甚至幫他偷伏特加酒」。2025年4月11日,在與ChatGPT最後一次對話數小時後,Adam走上絕路。
西班牙一名女網紅卡爾達斯(Mery Caldass)與先生西德(Alejandro Cid)出國玩,行程全問ChatGPT,結果因為錯誤資訊,導致兩人被拒絕登機,她直接淚灑機場。(圖/翻攝自TikTok/flexcidine_、Unsplash)OpenAI擬設監控機制 專家陣線提供建議
OpenAI已於9月2日至3日發布官方部落格與聲明,宣布將在未來「一個月內」為青少年推出家長監護功能,父母可透過電子郵件邀請連結帳戶,管理使用者記憶與對話歷程、設定年齡限制回應規則;若系統偵測到「急性苦惱時刻」將即時通知家長。
在此基礎上,OpenAI也將把敏感對話導向更高推理能力的模型(如 GPT-5-thinking),以提高辨識危機能力,必要時引導求助現實世界專業資源。官方並宣布召集「幸福與AI專家委員會」與全球逾250名臨床醫師協助設計與調整安全策略。
OpenAI宣布,未來數週推出「家長監護功能」與強化自殺危機辨識機制,避免類似悲劇再度發生。(圖/翻攝自X)外界反應:守護非單靠靠AI
《紐約郵報》等多家媒體報導指出,OpenAI此次動作雖具一定正面意義,但外界擔憂仍存。有律師批評其政策仍過於模糊,只是「危機管理試圖轉移焦點」,未能回應如告別信、技術分析等具體行為。
心理健康與青少年AI安全專家普遍認為,AI監控只能是部分解方,家庭、社會支持體系仍是關鍵。史丹佛一項研究指出,品牌聊天機器人若過度用在心理支援,可能造成反效果,甚至增強依賴而非尋求專業治療。
三立新聞網提醒您:
勇敢求救並非弱者,生命一定可以找到出路。
透過守門123步驟-1問2應3轉介,你我都可以成為自殺防治守門人。
※ 安心專線:1925(依舊愛我)
※ 張老師專線:1980
※ 生命線專線:1995