site logo: www.epochtimes.com

新州警方就骗子用AI深度伪造欺诈发警告

新州警方就AI深度伪造诈骗趋势发出警告。(Shutterstock)
【字号】    
   标签: tags: , , , , , ,

【大纪元2024年05月08日讯】(大纪元记者夏楚君澳洲悉尼编译报导)新州警方就一种新出现的诈骗趋势发出警告。在这种诈骗中,诈骗者利用人工智能制作出与亲人或名人相似的虚假视频或信息,诱骗人们进行虚假投资或窃取人的钱财或个人信息。

新州警方周三(5月8日)在脸书上发布公共警报,警告人们不要“上当受骗”。

“谨防‘深度伪造(Deepfake)’诈骗。不要上当受骗。保护自己和亲人免受数字技术欺骗”,警方说。

此类诈骗涉及骗子使用深度伪造技术或人工智能篡改现有视频和图像,甚至更改语音片段或创建令人信服的音频。

骗子通过深度伪造技术,生成名人或政客形象的视频或图像,在某些情况下还会生成亲人形象的视频或图像,并利用这些虚假信息,操纵人们进行投资。

有时,骗子还会窃取人们的个人信息或银行详情。

猎人谷(Hunter Valley)居民梅肯(Gary Meachen)讲述了他与这些骗子打交道的经历,他在脸书上被一个复杂的投资计划骗局骗走了40万澳元。

他在接受九号电视台《时事》(A Current Affair)栏目采访时说,虚假的投资广告给人的印象是亿万富翁马斯克(Elon Musk)、总理阿尔巴尼斯、前总理吉拉德(Julia Gillard)以及众多媒体名人和主持人都支持这一所谓的投资项目。

但广告中每个人的镜头都使用了深度伪造技术。

“我们以为两周内就能赚到一百万”,他告诉节目组,结果发现,他和妻子在投资后银行账户里的钱都没了。

他说,他已经向当局举报了这一骗局。

如何避免深度伪造诈骗:

警方建议用以下方法,识别骗局。

Θ 注意不一致的地方:不自然的表情、一个人对词语的强调、手部周围的扭曲、不匹配的唇语、不寻常的眨眼睛;

Θ 创建一个家庭口令或短语,这样当你在电话或FaceTime通话中产生怀疑时,就可以向对方询问口令;

Θ 问一个只有家人或朋友才知道答案的私人问题;

Θ 不要迫于压力快速做出决定;

Θ 调查任何投资公司的合法性;

Θ 向诈骗监管网站Scamwatch.gov.au举报骗局。

责任编辑:宗敏青

了解更多澳洲即时要闻及生活资讯,请点击 dajiyuan.com.au
(本文未经许可不得转载或建立镜像网站)

评论