site logo: www.epochtimes.com

騙子用AI模仿朋友聲音 安省男子被騙八千元

聯邦貿易委員會(FTC)數據顯示,近來加美兩國越來越多犯罪分子利用人工智能克隆聲音,冒充他人親朋好友進行詐騙。(Shutterstock)
人氣: 115
【字號】    
   標籤: tags: , , ,

【大紀元2023年08月24日】(大紀元記者李平多倫多報導)近日安省一名男子陷入人工智能(AI)新騙局。騙子用AI模仿男子朋友聲音,男子被騙8,000元。

這名男子是安省旺市居民,只願透露自己名叫山姆(Sam)。山姆向CTV透露,前不久他接到一個電話,對方自稱是他朋友,他和這名朋友曾約好近期內一起去釣魚。

騙子在電話中說,他開車發短信發生嚴重車禍被警察逮捕,需交近8,000元保釋金。山姆表示,電話中騙子聲音和朋友聲音如出一轍,說話口氣也一樣,他才沒有懷疑。

緊接著,山姆又接到自稱是朋友律師的多個電話,最後稀里糊塗地給騙子轉了8,000元。隨後騙子又編造其它藉口索取更多錢,山姆開始起疑,打電話給朋友,朋友說一切安好,啥事沒有,他才發現自己被騙子耍得團團轉。

後來騙子又打來電話,山姆告訴對方他已發現對方根本不是他朋友,騙子停頓一會,隨後聲音恢復原樣,不再是人工智能輔助篡改後的聲音。

如何避免上當受騙

聯邦貿易委員會(FTC)數據顯示,近來加美兩國越來越多犯罪分子利用人工智能克隆聲音,冒充他人親朋好友進行詐騙,委員會收到海量這類投訴,去年消費者被騙金額總計26億元。

FTC市場部助理主管格雷斯曼(Lois Greisman)提醒,人工智能聲音克隆問題嚴重,消費者應察覺和警覺,防止上當受騙。騙子會截取受害人或其親友的一段聲音片段,然後利用人工智能進行複製,複製後的聲音和原聲基本可以假亂真。

格雷斯曼介紹,克隆他人聲音,騙子只需截取幾秒鐘的聲音,可通過錄音、從社媒上截取或從電話留言中截取他人聲音。這類騙局共同點是騙子聲稱出了急事、急需用錢,接到這類急需用錢、急需電子轉帳、禮品卡甚至現金的電話,應立即引起警覺,不要立即上當,而是直接打電話給家人或朋友確認。

專家提醒,騙子不僅會冒充他人家人和朋友,還會冒充公司老闆稱急需用錢。要避免上當受騙,最好有些暗語,只要心中起疑,立即掛斷電話然後直接聯繫當事人確認。◇

責任編輯:文芳

評論