site logo: www.epochtimes.com

騙子利用AI語音克隆行騙 專家警告防範

一位澳洲人工智能專家警告說,騙子們正越來越多地利用人工智能(AI)語音克隆技術,騙取錢財。圖為示意圖。(Shutterstock)
【字號】    
   標籤: tags: , , , , ,

【大紀元2023年05月26日訊】(大紀元記者夏楚君澳洲悉尼編譯報導) 一位澳洲人工智能專家警告說,騙子們正越來越多地利用人工智能(AI)語音克隆技術,冒充受害者親人,騙取大筆錢財。

悉尼科技大學(UTS)電氣和數據工程學院副教授阮迪普(Deep N Nguyen)博士說,人工智能模型可以從相對較短的語音片段中重現發聲頻率,並將片段串成連貫的句子。

他告訴9號新聞網:「一些人工智能模型和算法只需要一分鐘或更短的錄音,就足以合成一個相當高質量的語音克隆文件。」

他補充說,先進的人工智能模型和算法可以很好地合成一個聲音,「普通人很難區分克隆的和真實的聲音」。

「一些人工智能模型誇口,與真實的聲音相比,它們的語音克隆可以達到99%的準確性。」

「有了這1%的差異,對於人類來說,將很難識別出其中的聲音差別。」 他說。

阮迪普警告說,騙子們越來越多地利用新興技術騙取大筆錢財。

阮迪普說,「海外已經發生許多案件,如在英國、阿拉伯聯合酋長國、香港。」

「語音克隆肯定是一種高風險……毫無疑問,它(語音克隆騙局)將來到澳洲。」

阮迪普說,理論上,騙子可以使用現有的社交媒體視頻,並通過人工智能語音克隆器來重新創建一個聲音。

「無論我們通過Facebook、TikTok、YouTube在網上分享什麼,我們的聲音、照片和視頻,都有可能被深度造假技術用來訓練人工智能模型,用於克隆語音目的。」

「隨著人工智能模型的不斷快速發展,(騙子)需要越來越少的數據,合成足夠接近真實的聲音,用於欺詐。」

他提醒說,「要謹慎分享個人數據。」

他還補充說,人們應該警惕任何要求匯款的電話,不管它是否來自親人。

責任編輯:宗敏青

了解更多澳洲即時要聞及生活資訊,請點擊 dajiyuan.com.au
(本文未經許可不得轉載或建立鏡像網站)

評論