site logo: www.epochtimes.com

騙子利用人工智能 造虛假視頻和音頻行騙

專家警告說,詐騙者正在利用高度複雜的人工智能,即「深度造假」技術,製造虛假視頻或音頻行騙。(Pixabay.com)
【字號】    
   標籤: tags: , , , ,

【大紀元2023年03月24日訊】(大紀元記者夏楚君澳洲悉尼編譯報導)專家警告說,詐騙者正在利用高度複雜的人工智能,即「深度造假」技術,製造虛假視頻音頻行騙。

聲音與親人一模一樣的假語音信箱可能是貪婪的騙子們的新手段。

「你可能會收到你(兒子或女兒)給你打電話的聲音,說『我在加油站,沒有錢,你能把錢打進這個銀行帳戶嗎,這樣我就能付油費了』,」計算機安全公司McAfee負責亞太區產品增長的總經理麥基(Tyler McGee)說。

据《每日電訊報》報導,去年,澳洲因詐騙和黑客攻擊而損失了5億澳元,而且這個數字還將上升,因為聊天機器人、深度偽造技術和其他旨在減輕工作量的人工智能工具正被用來加速惡意軟件的製作,冒充受信任的人,使詐騙行為更難被發現。

麥基說,人工智能正在讓網絡犯罪分子「占上風」。

以前,糟糕的拼寫或語法會讓騙子暴露,而ChatGPT正在幫助騙子寫出更清晰的內容。

這個免費的人工智能聊天機器人於去年11月推出,對自然語言的提示做出類似人類的反應。

它已被用於製作從博客和營銷材料到演講和騙局的內容。

它還可以編寫和修復計算機代碼,使網絡犯罪分子能夠在最短的時間內創建惡意軟件。

麥基說:「大多數從事網絡安全或網絡犯罪領域的編碼員的技能組合,可以從非常有限到非常先進。」

麥基說,「深度偽造」技術主要用於娛樂、虛假信息和色情,但 「我們開始看到它被用於欺詐」。

他說,騙子最近冒充一位首席執行官,通過Zoom電話要求員工將資金轉到一個竊取公司資金的帳戶。

同時,還有一些新的人工智能工具,允許用戶只用一小段聲音就能複製聲音。

麥基說,這可能會使「媽媽語音短信」騙局「更進一步」。

他警告說,不要為電話信息庫設置個性化的語音問候語。

「你的聲音是你的資產,我絕對不建議與任何人分享它。」

責任編輯:楊帆

了解更多澳洲即時要聞及生活資訊,請點擊 dajiyuan.com.au

(本文未經許可不得轉載或建立鏡像網站)

評論