site logo: www.epochtimes.com

骗子利用AI语音克隆行骗 专家警告防范

一位澳洲人工智能专家警告说,骗子们正越来越多地利用人工智能(AI)语音克隆技术,骗取钱财。图为示意图。(Shutterstock)
【字号】    
   标签: tags: , , , , ,

【大纪元2023年05月26日讯】(大纪元记者夏楚君澳洲悉尼编译报导) 一位澳洲人工智能专家警告说,骗子们正越来越多地利用人工智能(AI)语音克隆技术,冒充受害者亲人,骗取大笔钱财。

悉尼科技大学(UTS)电气和数据工程学院副教授阮迪普(Deep N Nguyen)博士说,人工智能模型可以从相对较短的语音片段中重现发声频率,并将片段串成连贯的句子。

他告诉9号新闻网:“一些人工智能模型和算法只需要一分钟或更短的录音,就足以合成一个相当高质量的语音克隆文件。”

他补充说,先进的人工智能模型和算法可以很好地合成一个声音,“普通人很难区分克隆的和真实的声音”。

“一些人工智能模型夸口,与真实的声音相比,它们的语音克隆可以达到99%的准确性。”

“有了这1%的差异,对于人类来说,将很难识别出其中的声音差别。” 他说。

阮迪普警告说,骗子们越来越多地利用新兴技术骗取大笔钱财。

阮迪普说,“海外已经发生许多案件,如在英国、阿拉伯联合酋长国、香港。”

“语音克隆肯定是一种高风险……毫无疑问,它(语音克隆骗局)将来到澳洲。”

阮迪普说,理论上,骗子可以使用现有的社交媒体视频,并通过人工智能语音克隆器来重新创建一个声音。

“无论我们通过Facebook、TikTok、YouTube在网上分享什么,我们的声音、照片和视频,都有可能被深度造假技术用来训练人工智能模型,用于克隆语音目的。”

“随着人工智能模型的不断快速发展,(骗子)需要越来越少的数据,合成足够接近真实的声音,用于欺诈。”

他提醒说,“要谨慎分享个人数据。”

他还补充说,人们应该警惕任何要求汇款的电话,不管它是否来自亲人。

责任编辑:宗敏青

了解更多澳洲即时要闻及生活资讯,请点击 dajiyuan.com.au
(本文未经许可不得转载或建立镜像网站)

评论