聽新聞
0:00 0:00

可怕!AI 只需3秒就能「複製你的聲音」打給親友騙錢

記者谷庭/台北報導

  詐騙集團現在透過AI複製人聲,來矇騙親友轉帳。 (圖/資料照)

 ▲ 詐騙集團現在透過AI複製人聲,來矇騙親友轉帳。 (圖/資料照)

近年AI 發展快速,很多企業開始導入AI 加快辦公效率,不過現在也被有心人士用來當詐騙工具。

外媒報導,AI風險評估公司Blackbird.AI共同創辦人哈利德指出,發現有詐騙集團開始利用AI技術,複製他人的聲音,進行電話語音詐騙,來竊取銀行帳密或是要求轉帳。

由於透過AI技術,這樣的AI語音複製人聲音跟真人非常相近,所以很容易讓人受騙上當,尤其是一些常在電視、公開場合講話的公眾人物,最容易成為詐騙集團的目標,節錄發言片段,讓AI去複製聲音,甚至只要花3秒就能成功複製出來。

不過目前尚未有辨別是真人還是AI語音複製人的技術,所以若要避免被騙,若突然接到親友打電話來要求緊急匯款,一定要進一步再跟本人確認,以免落入詐騙集團的陷阱中損失慘重。另外也提醒民眾,平常在網路上盡量不要留下個資、電話等資訊,也容易成為詐騙集團鎖定的目標。

加入 @setn 好友

大數據推薦
熱銷商品
直播✦活動
三立新聞網三立新聞網為了提供更好的閱讀內容,我們使用相關網站技術來改善使用者體驗,也尊重用戶的隱私權,特別提出聲明。
了解最新隱私權聲明 知道了