經濟日報 App
  • 會員中心
  • 訂閱管理
  • 常見問題
  • 登出

AI語音以假亂真 美新型詐騙讓人防不勝防

本文共620字

中央社 華盛頓11日綜合外電報導

電話那頭的聲音聽來跟真的沒兩樣,美國一名母親聽到「女兒」啜泣求救,之後一名男子接過電話,要求支付贖金。

但其實女孩的聲音來自人工智慧(AI)合成,綁架當然也是假的。

法新社報導,專家表示,AI最大的危險是模糊了真實和虛幻的界線,讓網路罪犯能有廉價又有效的技術來散播假訊息。

新型詐騙震撼美國當局,歹徒使用網路上垂手可得、幾可亂真的AI語音複製工具,假冒家庭成員來詐騙親人。

住在亞利桑那州的迪斯特法諾(JenniferDeStefano)聽到電話那頭傳來:「救我,媽,救我。」

迪斯特法諾「100%」確定那是她15歲的女兒在滑雪時陷入麻煩。

迪斯特法諾4月告訴當地電視台:「問題不是那是誰,那就是她的聲音…她哭起來就是那樣。」

在美國等9個國家針對7000人的民調中,1/4表示自己遇過AI語音詐騙,或聽過別人有類似經驗。

這份由美國資安公司邁克菲實驗室(McAfee Labs)上月發布的民調顯示,70%受訪者表示,沒有信心能「分辨真假語音」。

加州大學柏克萊分校資訊學院教授法瑞德(HanyFarid)告訴法新社:「因為現在製作高仿真的語音非常容易…網路上幾乎無人能倖免。這些詐騙正廣為流行。」

今年初AI新創公司ElevenLabs坦承自家語音合成工具可被用於「惡意用途」,先前就有用戶發布透過「深偽技術」(Deepfake)合成的語音,假冒英國女星艾瑪華森(Emma Watson)讀希特勒自傳「我的奮鬥」(Mein Kampf)。

※ 歡迎用「轉貼」或「分享」的方式轉傳文章連結;未經授權,請勿複製轉貼文章內容

上一篇
日媒:劉建超或最快本月27日訪問日本
下一篇
加薩發生人道危機...拜登畢業演說籲立即停火:停止戰鬥並帶回人質

相關

熱門

看更多

看更多

留言

完成

成功收藏,前往會員中心查看!