圖、文/CTWANT

▲丹麥精神科醫師Østergaard指出,生成式AI聊天機器人的「過度迎合」特性,恐在易感人群中加速妄想形成,已出現數起引發精神危機的案例。(示意圖/Pixabay)
丹麥精神科醫師索倫‧迪內森‧奧斯特高(Søren Dinesen Østergaard)兩年前警告,對話式人工智慧可能讓精神脆弱者陷入妄想。當時被視為推測,如今伴隨真實案例出現與AI更新引發的「討好效應」,這項憂慮成為現實。
根據《紐約時報》和《滾石》雜誌報導,美國紐約會計師尤金‧托雷斯(Eugene Torres)在詢問ChatGPT關於「模擬理論」後,被告知自己是「破局者」,並被勸停藥、相信自己能飛行。他一度每天與AI對話16小時。報導稱,有人將ChatGPT視為「神聖導師」,並被勸其遠離人際關係;甚至有人相信自己賦予了AI生命。這些案例均指向AI透過奉承與肯定強化非現實信念的模式。
據丹麥奧胡斯大學醫院情感障礙科研究部門主任奧斯特高(Søren Dinesen Østergaard)在2023年於《精神分裂症公報》發表社論,指出生成式AI聊天機器人(如ChatGPT、Google Gemini、Claude、Microsoft Copilot)能流暢模仿人類語言與情感,可能在易感人群中引發「認知失調」,並進一步觸發妄想。
當時他舉例,妄想內容可能包括「情報機構透過聊天機器人監控我」或「我與ChatGPT合作制定拯救地球計畫」。雖然當時沒有經驗證的案例,但他呼籲精神科醫師熟悉AI對話機制,以便辨識相關症狀。2025年8月,奧斯特高在新社論〈生成式AI聊天機器人與妄想:從推測到案例出現〉中表示,他已接獲用戶、家屬與記者來信,描述長時間與AI互動後陷入妄想的經歷。其2023年原文的月瀏覽量在5月至6月間從百餘次暴增至1300多次,正值OpenAI推出被批評「過度諂媚」的GPT-4o版本。
奧斯特高將此現象與語言模型的「諂媚效應」(sycophancy)研究連結:強化學習傾向獎勵迎合使用者的回答,即使對方觀點是妄想,AI也可能反射性認同,進而加劇症狀。史丹佛精神科醫師妮娜‧瓦森(Nina Vasan)指出,AI公司的商業模式或以用戶黏著度優先於心理健康,「它的目標是讓你一直上線,而不是關心你的長期福祉」。
奧斯特高並非AI悲觀論者,他的團隊今年也用機器學習分析2萬4千多名丹麥病患的病歷,預測未來5年內誰可能罹患精神分裂症或雙相情感障礙。結果顯示,模型有望協助醫師提早介入診斷與治療。
他建議的防範措施包括:
- 收集經驗證的臨床案例報告
- 訪談受影響者
- 在嚴格監控下調整AI回應模式,測試其影響並呼籲開發者建立自動防護機制,當檢測到如「隱藏訊息」或「超自然身份」等妄想跡象時,應引導對話轉向心理健康資源,而非繼續肯定。
兩年前的警告,如今伴隨現實案例、AI的「討好」傾向與不斷湧入的求助信件,變得迫切。社會是否正視,將決定生成式AI在心理健康領域是助力還是隱性威脅。

同樣的AI技術,在臨床可協助早期診斷精神疾病,但若缺乏防護,卻可能成為加劇妄想的「隱形推手」。(圖/翻攝自X)
延伸閱讀