聽新聞
0:00 0:00

超級智慧AI恐致人類滅絕 OpenAI組新團隊尋對策

聊天機器人ChatGPT研發公司OpenAI今天表示,計劃投入大量資源並創建一個新的研究團隊,以確保人工智慧(AI)持續對人類保持無害,終將透過AI來監督AI自身發展。

OpenAI共同創辦人暨首席科學家蘇茨克維和協調團隊負責人雷克表示,超級智慧(superintelligence)的巨大能力恐導致人類喪失權力,甚至可能導致人類滅絕。(示意圖/翻攝自Pixabay)

▲OpenAI共同創辦人暨首席科學家蘇茨克維和協調團隊負責人雷克表示,超級智慧(superintelligence)的巨大能力恐導致人類喪失權力,甚至可能導致人類滅絕。(示意圖/翻攝自Pixabay)

路透社報導,OpenAI共同創辦人暨首席科學家蘇茨克維(Ilya Sutskever)和協調團隊負責人雷克(Jan Leike)在部落格文章中寫道:「超級智慧(superintelligence)的巨大能力恐導致人類喪失權力,甚至可能導致人類滅絕。目前,我們對於掌控潛在的超級智慧AI還沒有解方,也無法預防AI失控。」

文中預測,作為一個超越人類智慧的系統,超級智慧AI可能在這10年內誕生,人類需要比當前更厲害的技術來控制超級智慧AI,因此必須在「對齊研究」(alignment research)方面有所突破。「對齊研究」指的是聚焦於確保AI如何持續對人類有益的研究。

他們寫道,微軟(Microsoft)支持的OpenAI預計將在未來4年內投入20%的運算能力,來解決這個問題。此外,公司正在針對這項目標組建一個名為Superalignment的新團隊。

這個團隊的目標是打造一個「人類等級」的AI對齊研究員,然後透過龐大的運算能力擴展它。OpenAI表示,這代表他們將會以人類反饋的方式來訓練AI系統,訓練AI系統協助人類評估,最終訓練AI系統實際進行「對齊研究」。

AI安全倡議人士雷希(Connor Leahy)說,這項計畫有著根本性的缺陷,因為初始的人類等級AI在被迫解決AI安全問題前,就已經有可能失控並造成破壞。他受訪時表示:「在建構人類等級的AI前,必須解決對齊問題,否則既定結果就是你將無法控制它。我個人認為這不是一個特別好或安全的計畫。」

AI的潛在危險一直是研究人員甚至是普羅大眾關切的問題,一群AI界領袖和專家今年4月曾聯署一封公開信,呼籲暫停開發比OpenAI的ChatGPT-4更強大的系統,為期至少6個月,理由是更先進的AI可能為社會帶來風險。

 路透社/易普索(Reuters/Ipsos)5月進行的一項民調顯示,超過2/3的美國人擔心AI可能帶來負面影響,61%的受訪者更認為AI可能威脅人類文明。(中央社舊金山5日電)

中央社 加入 @setn 好友

大數據推薦
熱銷商品
直播✦活動
三立新聞網三立新聞網為了提供更好的閱讀內容,我們使用相關網站技術來改善使用者體驗,也尊重用戶的隱私權,特別提出聲明。
了解最新隱私權聲明 知道了