曼尼托巴中文论坛

搜索
查看: 697|回复: 0

加拿大老夫妇被骗2.1万,电话里听到的儿子声音竟是AI合...

[复制链接]

6031

主题

6081

帖子

7867

积分

管理员

Rank: 15Rank: 15Rank: 15

积分
7867
一对加拿大夫妇在接到一通电话后被骗走了 21,000 加元,他们在电话中听到了自己的“儿子”说,他出车祸了,并且撞死了一名外交官,现在正面临被起诉甚至是入狱的危险,急需一笔法律费用...$ W$ L, \/ E' A1 I+ d$ A  y0 v

& F1 M) G3 Q9 D; A
然而,当他们心急如焚地通过比特币汇款 21,000 加元后,才知道上当受骗了,而且还是被 AI 合成声音骗了。
' m7 C. i( l; x
0 s+ Y  q. d) C

' a2 o8 K( X- A
微信图片_20230312114344.png
$ H, w8 F! _# `7 c" K
图源:businessinsider

4 e% _  N; W* i5 x5 h7 ]3 J3 o

% I# W. B& w) D8 s! p  p

2 v6 ]5 V% {- w! u
据《华盛顿邮报》(The Washington Post)报道,加拿大一对夫妇接到一通电话,从自称“律师”的男子口中得知,儿子 Benjamin Perkin 在一场车祸中撞死外交官,现在正面临入狱的危险,并告诉他们 Perkin 在出庭前需要 21,000 加元的律师费,然后话筒里传来了“儿子 Perkin”开口要钱的声音。
* T. s6 ]7 }' y
夫妻俩 一下子慌了,迅速筹措了现金并通过比特币账户向诈骗者汇款。不过当汇款完成后,冷静下来时才隐约感觉哪里不对,电话听起来很奇怪。直到真的“Perkin”在当天稍晚打电话过来,他们才确认自己被骗了。

- Y& ?+ X8 \1 ]7 c2 K
. b& x9 o# F( x: `9 M4 ?
) Z5 N5 v5 V$ w0 J( |& t  i& q
微信图片_20230312114349.png

( `) m% r/ l- ^# ?( F
图源:LuckyStep/Shutterstock

3 M( P+ F7 [! e- y

. \# t* }8 ?# l2 e& m

" X) l7 [  I. L
Perkin 告诉邮报,这个声音“非常接近,让我的父母真的相信他们确实和我说话了。”

# ?* e' ]& \0 a% M
Perkin 表示,他的家人已经向加拿大当局提交了一份警方报告,但是,“钱没了。没有保险。也无法取回。”

3 o4 M& O- |! y5 m+ g( ^
邮报报道称,虽然 Perkin 不知道骗子是如何找到他的声音的,但他之前在 YouTube 上发布过一段关于雪地摩托的视频。

- A+ Z" p% U" x
) |9 N1 B. \' C! A
: u1 N' x1 }5 |" e+ J1 @# Z5 N$ G
微信图片_20230312114354.png
) _- G2 K6 y% g- l: V/ `8 M
图源:The Washington Post
. K; v5 v3 J9 T) Y, t

; L) _2 L4 r- R

8 i, ]6 i  O/ {3 D& ~
《商业内幕》(Business Insider)报道,更强大的人工智能工具兴起之际,冒充他人的诈骗活动也在相应增多。不过,早在 ChatGPT 问世之前,涉及 AI 技术的诈骗就已经出现。

, H) ]6 x# M2 N9 L7 Y, c
AI 语音生成技术能够分析出说话者的声线特点,包括年龄、性别和口音等,然后从庞大的声音资料库中搜索出相似的声音并进行模拟预测,最后重构出整体效果非常近似的合成声线。

( {$ _2 g2 b7 u; j" s
这项技术需要的只是一个 30 秒左右的音讯样本,例如是 YouTube、广告、TikTok 的短片音频,突破了一、两年前仍然需要大量音频来复制人声的状况。
" v3 d9 A/ M/ W8 o+ f
不法分子正是利用这一高新技术,骗取大众特别是长者的信任,进而冒认其亲人来诈财。

- \5 B2 l7 L( h! m" G: @6 B

' d0 ?, ?% {# P/ R9 g5 t5 u5 ]/ d0 Y- w
微信图片_20230312114359.png
2 J" k" N0 y' Z/ U' F2 p

: P9 I* t- F9 G' X/ T+ g& I% T

9 ]: |$ ^$ Q1 g) v
美国联邦贸易委员会(FTC)的数据指出,2022 年有 240 万人的欺诈报告,虽低于 2021 年,但损失的金额更高,报告称损失了 88 亿美元。
( S9 ]+ c/ I' w5 w: ~
相比之下,行骗成本却低廉得多。
' a0 E% i& _: ~
专家表示,现时联邦监管机构、执法部门和法院对这种新兴骗局均束手无策。
% F; I9 M1 ^9 B. h! k# `
FTC 成立了一个新的技术办公室来调查公司承诺的人工智能的潜在用途,并查看公司是否正在减轻其产品可能造成的风险。

$ X' p3 O) i$ N6 S
+ r, _% Y- t1 R0 P

* ]0 q/ v* l+ ?9 v! G1 d
微信图片_20230312114403.png
& z3 r7 w( x  \) i8 w" R# B
图源:FTC

3 [, X. s% t4 L- l; o, T* i
% Q% Y  d3 c$ A- k3 T5 b

" ^7 E4 C" A0 Y
FTC 发言人 Juliana Gruenwald 此前表示:“我们很是担心越来越容易创建和传播的深度造假和其他基于 AI 的合成媒体将被用于欺诈的风险。”
& O% y1 H& X$ n; Z. X7 l: q& w
Gruenwald 表示:“生成看似真实的视频、照片、音频和文本的人工智能工具可以推动这一趋势,让欺诈者的影响范围更大,速度更快。”
7 C1 b" O; l% {# \+ R
FTC 敦促民众要对任何现金要求保持警惕。如果有亲人说需要钱,请不要慌张,稍晚些时候再用其他电话打给那名亲人加以确认。也不要透过礼品卡方式付钱给别人,因为这种方式很难追踪。
+ R: R" o( Y( q, Y: y
来源:超级爆料君
: c$ p1 |* D8 ~+ V* k3 r5 r: w
使用 高级模式(可批量传图、插入视频等)
您需要登录后才可以回帖 登录 | 曼尼托巴中文网注册链接激活

快速回复 返回顶部 返回列表