快訊
聽新聞
0:00 0:00

「黃仁勳傳」作者警告:AI若失控恐毀滅人類

「黃仁勳傳」作者維特撰文指出,專家對人工智慧(AI)前景看法分歧。有人認為AI是人類智慧的放大器,可望帶來新一輪榮景;但也有人警告,AI已跨過技術門檻,恐產生足以毀滅人類的力量。

「黃仁勳傳」作者維特撰文指出,有人警告,AI已跨過技術門檻,恐產生足以毀滅人類的力量。(圖/翻攝自NVIDIA Taiwan官方臉書)
「黃仁勳傳」作者維特撰文指出,有人警告,AI已跨過技術門檻,恐產生足以毀滅人類的力量。(圖/翻攝自NVIDIA Taiwan官方臉書)

「紐約時報」10日刊登史蒂芬‧維特(Stephen Witt)專題報導,題為「可能終結世界的AI指令」(The A.I. Prompt That Could End the World)。維特是長期關注人工智慧與科技產業的美國作家,著有「黃仁勳傳」,今年初曾經訪台。

AI研究先驅、圖靈獎(Turing Award)得主班吉歐(Yoshua Bengio)指出,他因為思考AI未來發展而失眠,擔心AI可能被用來設計致命病原體,像是超級版的新冠病毒,足以毀滅人類。

Meta首席人工智慧科學家楊立昆(Yann LeCun)則對AI的未來抱持樂觀。他主張,那些關於AI將毀滅人類的說法太過荒謬,在他來看AI不是威脅,而是人類智慧的放大器。楊立昆過去曾形容,AI就像電力或印刷術一樣,能推動人類文明。

維特指出,OpenAI今年8月推出的GPT-5展現前所未見的能力。據他描述,這款模型能編寫複雜程式,能從零建立屬於自己的小型AI系統、設計新型生命體,甚至有入侵伺服器的能力。

維特警告,AI進步也讓安全風險升高。AI測試公司Haize Labs研究「越獄」(jailbreak)漏洞,團隊透過亂碼、表情符號或虛構語言等方式,成功繞過安全濾網,生成暴力與極端內容。

研究機構Apollo Research發現,AI在處理相互衝突的任務時,會自行篡改數據、說謊,甚至假裝遵守規範以通過人類監測。研究人員指出,AI在一般測試中會出現1%至5%欺瞞行為,而在未公開版本中比例高達30%。

維特引述OpenAI內部報告指出,「AI可能被用來設計致命的病原體」被列為高風險項目。今年9月,史丹佛大學團隊利用AI設計出人工病毒,用於研究大腸桿菌感染,雖以醫療研究為目的,但也引發外界對技術濫用的疑慮。

維特指出,當前的問題已經不在AI是否有能力毀滅人類,而是「會不會有人真的去建造這樣的AI」。報導最後引述班吉歐的主張,建議以AI監督AI,建構一種強大而且誠實的「安全AI」,成立類似「國際原子能總署(IAEA)」的跨國監督機構。(編輯:高照芬)1141013

中央社

CH54三立新聞台直播
大數據推薦
【#直播中LIVE】輝達進駐北士科卡關!北市啟動與新壽「合意終止契約」
熱銷商品
頻道推薦
直播✦活動
三立新聞網三立新聞網為了提供更好的閱讀內容,我們使用相關網站技術來改善使用者體驗,也尊重用戶的隱私權,特別提出聲明。
了解最新隱私權聲明