一对加拿大夫妇在接到一通电话后被骗走了 21,000 加元,他们在电话中听到了自己的“儿子”说,他出车祸了,并且撞死了一名外交官,现在正面临被起诉甚至是入狱的危险,急需一笔法律费用...
1 G6 E3 k; k$ x6 h6 ]& P# E4 ]# } + B/ P, T( g' y7 U
然而,当他们心急如焚地通过比特币汇款 21,000 加元后,才知道上当受骗了,而且还是被 AI 合成声音骗了。
0 W x) U/ m7 Y& R t2 U6 F6 @ 9 u; A2 v* e; K6 d+ K
* I2 V( ?% l: z; _9 r7 ~# d# j( @" q. K! B, W
图源:businessinsider
1 A; Z4 n% a% b. P. ]$ F7 n+ S/ O
% ~" l$ ^. d) D3 P* r! I: ~. Y0 [
2 B: S/ f1 f) V& B
据《华盛顿邮报》(The Washington Post)报道,加拿大一对夫妇接到一通电话,从自称“律师”的男子口中得知,儿子 Benjamin Perkin 在一场车祸中撞死外交官,现在正面临入狱的危险,并告诉他们 Perkin 在出庭前需要 21,000 加元的律师费,然后话筒里传来了“儿子 Perkin”开口要钱的声音。 * r M7 |( L6 O& W/ {3 U
夫妻俩 一下子慌了,迅速筹措了现金并通过比特币账户向诈骗者汇款。不过当汇款完成后,冷静下来时才隐约感觉哪里不对,电话听起来很奇怪。直到真的“Perkin”在当天稍晚打电话过来,他们才确认自己被骗了。
% S$ H! L T% H4 W) V" a( ]
# J$ u+ g8 ?+ B& W' G" m; D) O* S- K+ c% |2 I% j! M
2 A- |' b7 r; `2 _) H$ O图源:LuckyStep/Shutterstock
. B9 `4 ?/ p+ S
. \8 ]( t5 ^* E/ s' ]
/ ^' r# {/ y) _8 O
Perkin 告诉邮报,这个声音“非常接近,让我的父母真的相信他们确实和我说话了。” 8 T) k: }, p T& F& J$ m# M& g
Perkin 表示,他的家人已经向加拿大当局提交了一份警方报告,但是,“钱没了。没有保险。也无法取回。”
+ V4 f9 Z& n6 A' e% C9 M$ ]3 F! n
邮报报道称,虽然 Perkin 不知道骗子是如何找到他的声音的,但他之前在 YouTube 上发布过一段关于雪地摩托的视频。
) q6 |, m, m1 P5 ]! u/ l) e% O
2 ~9 q" b4 V o% C' t: ]& Z) z
p6 H$ w- P/ \; @1 M0 m- x; S% z/ L3 a0 s+ m
图源:The Washington Post
& {4 _. h/ g' l2 ]
% P9 q; F. j* [+ V, o- Y
* g1 y0 I9 s' b7 F' Y; T8 F" k
《商业内幕》(Business Insider)报道,更强大的人工智能工具兴起之际,冒充他人的诈骗活动也在相应增多。不过,早在 ChatGPT 问世之前,涉及 AI 技术的诈骗就已经出现。 " f# ~& x: t( _/ W2 M7 ~
AI 语音生成技术能够分析出说话者的声线特点,包括年龄、性别和口音等,然后从庞大的声音资料库中搜索出相似的声音并进行模拟预测,最后重构出整体效果非常近似的合成声线。 ( S t0 C* d$ \
这项技术需要的只是一个 30 秒左右的音讯样本,例如是 YouTube、广告、TikTok 的短片音频,突破了一、两年前仍然需要大量音频来复制人声的状况。 ! R" T$ z S& ?/ C% x# v+ X: m. G
不法分子正是利用这一高新技术,骗取大众特别是长者的信任,进而冒认其亲人来诈财。 ! u! _ x7 y7 q3 m
! B _7 l6 }. W2 {7 v: o! \/ L: T3 B& O% `2 f& S* N
- L# q9 T R2 ^) i' d0 F
' r6 Q2 y* W/ V3 g7 X2 P3 R _; V* ]5 O3 ^' N" `! z! b/ A7 C
美国联邦贸易委员会(FTC)的数据指出,2022 年有 240 万人的欺诈报告,虽低于 2021 年,但损失的金额更高,报告称损失了 88 亿美元。
5 _/ `; E, F* M: @9 I
相比之下,行骗成本却低廉得多。
9 @4 E: o6 ^4 [/ w! a' R. Q
专家表示,现时联邦监管机构、执法部门和法院对这种新兴骗局均束手无策。 $ O/ O/ c7 G% ^0 u( d! v( t& c
FTC 成立了一个新的技术办公室来调查公司承诺的人工智能的潜在用途,并查看公司是否正在减轻其产品可能造成的风险。 3 {6 x7 r; b! Z
% Z8 v( \0 O% _4 B
, I3 t% t% u6 ~& U$ _- Y6 I6 M% z( H& K
, N9 d1 m6 N* [) H" F图源:FTC 1 s$ d0 `! ~6 s
v) R ]* @9 l: [" P* S9 v
: J7 l4 f$ g7 F0 |6 Z* L$ { F
FTC 发言人 Juliana Gruenwald 此前表示:“我们很是担心越来越容易创建和传播的深度造假和其他基于 AI 的合成媒体将被用于欺诈的风险。” - \/ C7 p1 N; a( k
Gruenwald 表示:“生成看似真实的视频、照片、音频和文本的人工智能工具可以推动这一趋势,让欺诈者的影响范围更大,速度更快。”
" ~& a2 E+ k; R# e% u" X
FTC 敦促民众要对任何现金要求保持警惕。如果有亲人说需要钱,请不要慌张,稍晚些时候再用其他电话打给那名亲人加以确认。也不要透过礼品卡方式付钱给别人,因为这种方式很难追踪。 T( e% C: q+ f3 o
来源:超级爆料君
2 T2 k) K/ p0 x* P |