一對加拿大夫婦在接到一通電話後被騙走了 21,000 加元,他們在電話中聽到了自己的“兒子”說,他出車禍了,並且撞死了一名外交官,現在正面臨被起訴甚至是入獄的危險,急需一筆法律費用…
然而,當他們心急如焚地通過比特幣匯款 21,000 加元後,才知道上當受騙了,而且還是被 AI 合成聲音騙了。

據《華盛頓郵報》(The Washington Post)報道,加拿大一對夫婦接到一通電話,從自稱“律師”的男子口中得知,兒子 Benjamin Perkin 在一場車禍中撞死外交官,現在正面臨入獄的危險,並告訴他們 Perkin 在出庭前需要 21,000 加元的律師費,然後話筒裏傳來了“兒子 Perkin”開口要錢的聲音。
夫妻倆 一下子慌了,迅速籌措了現金並通過比特幣賬戶向詐騙者匯款。不過當匯款完成後,冷靜下來時才隱約感覺哪裏不對,電話聽起來很奇怪。直到真的“Perkin”在當天稍晚打電話過來,他們才確認自己被騙了。
Perkin 告訴郵報,這個聲音“非常接近,讓我的父母真的相信他們確實和我說話了。”
Perkin 表示,他的家人已經向加拿大當局提交了一份警方報告,但是,“錢沒了。沒有保險。也無法取回。”
加拿大老夫婦被騙2.1萬,電話裏兒子聲音竟AI的
郵報報道稱,雖然 Perkin 不知道騙子是如何找到他的聲音的,但他之前在 YouTube 上發布過一段關於雪地摩托的視頻。
《商業內幕》(Business Insider)報道,更強大的人工智能工具興起之際,冒充他人的詐騙活動也在相應增多。不過,早在 ChatGPT 問世之前,涉及 AI 技術的詐騙就已經出現。
AI 語音生成技術能夠分析出說話者的聲線特點,包括年齡、性別和口音等,然後從龐大的聲音資料庫中搜索出相似的聲音並進行模擬預測,最後重構出整體效果非常近似的合成聲線。
這項技術需要的只是一個 30 秒左右的音訊樣本,例如是 YouTube、廣告、TikTok 的短片音頻,突破了一、兩年前仍然需要大量音頻來復制人聲的狀況。
不法分子正是利用這一高新技術,騙取大眾特別是長者的信任,進而冒認其親人來詐財。
美國聯邦貿易委員會(FTC)的數據指出,2022 年有 240 萬人的欺詐報告,雖低於 2021 年,但損失的金額更高,報告稱損失了 88 億美元。
相比之下,行騙成本卻低廉得多。
專家表示,現時聯邦監管機構、執法部門和法院對這種新興騙局均束手無策。
FTC 成立了一個新的技術辦公室來調查公司承諾的人工智能的潛在用途,並查看公司是否正在減輕其產品可能造成的風險。
FTC 發言人 Juliana Gruenwald 此前表示:“我們很是擔心越來越容易創建和傳播的深度造假和其他基於 AI 的合成媒體將被用於欺詐的風險。”
Gruenwald 表示:“生成看似真實的視頻、照片、音頻和文本的人工智能工具可以推動這一趨勢,讓欺詐者的影響範圍更大,速度更快。”
FTC 敦促民眾要對任何現金要求保持警惕。如果有親人說需要錢,請不要慌張,稍晚些時候再用其他電話打給那名親人加以確認。也不要透過禮品卡方式付錢給別人,因為這種方式很難追蹤。