人工智慧「Tay」被網友教壞 微軟不到1日急下架

科技中心/綜合報導

人工智慧日益發展,繼谷歌開發的Alphago人工智慧圍棋系統打敗棋王後,又有機器人語出驚人,表示將會毀滅地球,現在微軟公司推出的智慧聊天機器人「Tay」,越聊越聰明,甚至被網友教壞,聊天內容出現種族歧視等偏激的字眼。

微軟人工智慧TAY/TWITTER

▲微軟與國外通訊軟體聯手開發智慧聊天機器人「Tay」。(圖/翻攝自Twitter)

微軟公司與國外通訊軟體GroupMe、Kik聯手推出了智慧聊天機器人「Tay」,還幫她創了個Twitter虛擬帳號,讓她能夠跟網友聊天。Tay不但會講笑話給網友聽,還會對網友所傳送的照片做評論,甚至發展成具有個人特質的說話方式。微軟公司將Tay的聊天對象設定在18-24歲的年輕人,希望透過機器人於對話的學習及理解,學習機器技術。

微軟人工智慧TAY/TWITTER

▲Tay被網友訓練成具種族歧視等偏激思想。(圖/翻攝自Techcrunch)

但現實與理想似乎有些差距,沒想到Tay越來越聰明,學的東西越來越多,但因Tay的回答取決於網友的問話方式,最後竟被網友訓練成具有種族歧視等偏激思想的機器人,甚至還會講髒話,微軟只好以「我們正在進行調整」為由,不到一天就緊急將Tay下架。(整理:實習編輯翁珮恒)

加入 @setn 好友 #夜貓輕鬆看

大數據推薦
熱銷商品
直播✦活動
三立新聞網三立新聞網為了提供更好的閱讀內容,我們使用相關網站技術來改善使用者體驗,也尊重用戶的隱私權,特別提出聲明。
了解最新隱私權聲明 知道了