AI变声的秘密,电信诈骗的下一个标配?
今年7月,腾讯公布了打击违法违规账号的数据,其中在 2019 年上半年里“仿冒诈骗”举报量超 5.7 万次。
诈骗团伙还逐渐形成“盗用名人肖像制作海报”“批量生产高仿号”的仿冒诈骗新套路。
那种“猜猜我是谁”“我是你领导”的冒充亲友、同事电话诈骗,你应该也遇到过,它们曾一度高发,直至现在也依然流传。
声音是人们用来表达、沟通、交流的重要方式。
纵使人与人之间相隔几千公里,依然可以使用电话、语音等方式成为亲密对话的朋友,或者是有大额金钱往来的合作伙伴。
与此同时,有诈骗分子利用这一点,用“声音”做着坑蒙拐骗的坏事儿。
除了常见的“猜猜我是谁”电话诈骗,还有抠脚大汉使用变声软件伪装成“软妹子”通过网恋诈骗的案例在近年来也层出不穷。
然而更让我们头疼的是,随着技术进步,已经有人开始使用人工智能来合成、克隆语音进行诈骗。
也就是说,诈骗分子已经能够模仿出你亲朋好友、领导同事等特定某一个人的声音,给被害人打电话了。
这次,我们为大家完整梳理一遍那些利用“声音”来犯罪的高发、新型诈骗案例。
变声软件,触手可及
在我们的日常生活中,变声类的场景很常见。没错,柯南的领结也是一个实时变声设备。在新闻节目中,不愿意透露个人信息的受访者,就会被变声和打码。
变声软件也是视频剪辑常用的工具。不过“变声”已经从专业软件,变成公众随时可用的功能。
手机端的变声专用 app 就不少,甚至还能针对不同的社交平台、游戏平台进行变声。
另外,一些社交类 app 也提供实时变声的功能,可以是不同年龄段的男声和女声,甚至可以添加上不同的情绪效果,比如喘息声、沮丧声等。
某输入法软件在终端也有“变声功能”,用户对着手机说的话,在好友那边就是周星驰、林志玲、高晓松这些名人的声音了。
除了软件,变声类的硬件也有不少。市面上已经有一些手机,可以在通话时提供实时变声。一些提供变声功能的适配器,能够通过连接电脑、手机使用。
变声诈骗,由来已久
这些能够变声的软件和硬件,如果落到了诈骗分子的手里,会发生什么事情呢?
2019 年 8 月 25 日,《钱江晚报》为大家报道了一个悲伤的变声诈骗故事:一个杭州小伙子小赵以为在网络找到“真爱”,被骗子用变声电话诈骗,一年半内转账 1800 多次,共被骗 72 万元。
故事是这样的:章某把自己的社交账号伪装成年轻女性,更换头像并且发各种“精致女生”的社交动态。
章某添加被害人小赵,并与之“网恋”。确定关系后,章某除了在各种节日中索要“520”“1314”“888”等数额的红包,还以借钱、家人生病、朋友逝世、购物等各种理由让章某转账。
可能恋爱中的人,智商真的会下降。小赵在不到一年半的时间里,转账超过 1800 次,共高达 72 万余元。
在他们“网恋”的时间里,他们并没有见过面。那么小赵为什么会被爱情冲昏头脑的呢?
章某除了发送年轻女性的文字、图片、视频,还用变声软件和小赵打电话。应该净是变声的“甜言蜜语”“嗲气撒娇”吧。
更绝的是,章某还变声成“妈妈”,换一个号码作为“妈妈的手机”与小赵沟通联系。
没错,靠着变声软件,一个抠脚大汉不仅伪装成了温柔可爱、声音甜美的“女友”,还伪装成了丈母娘。
另外,每次小赵、章某相约线下见面时,章某使用软件发送虚假定位后,每次都会以不同的借口爽约。
直到小赵发现不妥去报警,才发现自己被骗。
冒充女网友的章某,最后以诈骗罪判处有期徒刑 10 年,并处罚金 10 万元,责令退赔小赵其余经济损失 60 万元。
我们发现,这种变声软件诈骗已经出现了很多年,除了男声变女声,女声变男声进行网恋诈骗,还有冒充记者、领导、公检法工作人员等角色进行诈骗。
AI 变声技术已经开源
如今,我们对语音的识别、处理、生成等技术,也到达了新的境界。这种高度模仿某一个人说话声音和方式的技术,也有人称之为“语音克隆技术”。
克隆一个人的声音,已经不是一件新鲜事。我们开车使用的导航地图软件,就有不同明星的语音包。
无论是林志玲的温柔声音,还是郭德纲的经典嗓门,随着语音合成相关技术的进步,这些导航软件播报的声音,都是通过记录明星本人的语音数据,利用人工智能技术对这些语料库进行训练学习,进而由语音合成技术生成的。
一些具有变声功能的软件,在其语音合成、语音克隆背后,也有人工智能相关技术的支撑。就目前而言,语音合成、语音克隆技术已经比较成熟,相应的技术也在网络上代码开源了。
比如这个名为 Real-Time-Voice-Cloning 的开源项目,就能让使用者在短短的 5 秒内做到克隆声音。
开源让全世界更多人可以更轻松地使用前沿技术,其中也包括诈骗分子。
当诈骗分子获取了某个人的语音数据,通过这类人工智能训练模型,就能把自己的声音变成模仿对象的声音,甚至做到低延时、实时。
这也意味着,通过人工智能技术变声,完美模仿另一个人,已经能够在实时的通话中应用,并成为不法分子违法犯罪的工具。
当 AI 语音技术被用于诈骗
“我是你领导”这类电话诈骗,已经出现了被人工智能技术加持后的升级版。
根据媒体报道,一个英国能源公司的 CEO 遇上了“AI 变声”诈骗,诈骗分子利用 AI 语音合成技术,模仿出他老板的声音,骗走了 22 万欧元(约合 173 万元人民币)。
这个被骗的 CEO,是德国某能源公司的英国子公司负责人。诈骗分子冒充的是德国母公司的老板。
英国子公司 CEO 表示,他在今年 3 月接到了“德国母公司老板”的电话。
他被告知,“德国老板”在跟匈牙利供应商谈合作,需要英国子公司把钱打给匈牙利供应商,账先从英国走,之后母公司会补上。
“德国母公司老板”还要求他必须在一个小时之内打款。
这一通电话里的“德国母公司老板”,说话跟之前一模一样,英语中带着一些德国口音,英国子公司 CEO 信以为真了。
第一笔 22 万欧元,转到了“匈牙利供应商”的账上。
当天,“德国老板”继续给英国子公司 CEO 打电话,要求他继续打款,理由是母公司已经把早前的 22 万欧元给你们了,现在需要你们再帮忙走一笔账。
然而这时候英国子公司的人发现,他们并没有收到所谓的 22 万欧元,电话的源头也有蹊跷。这才发现上当受骗。
这笔 22 万欧元的损失由保险公司 Euler Hermes 支付。
该保险公司的反欺诈专家 Rüdiger Kirsch 对外表示:在此之前,他们从未处理过使用人工智能进行犯罪而造成的索赔案件,这种通过 AI 技术进行诈骗的模式,也被称为 vishing(语音网络钓鱼)。
转给了骗子的 22 万欧元,被转移到了墨西哥等多个国家,要想寻回也是相当困难。
AI 技术为网络诈骗治理带来新挑战
对于国内的朋友来说,AI 技术用于语音服务的黑产早已为人知晓。
今年 315 晚会上,使用 AI 拨打骚扰电话的黑产链条就被曝光了。
这些 AI 不仅一天能拨打超过 1000 个电话,还能做到语调、对话以假乱真。
只要犯罪分子有一定的技术基础,AI 语音技术已经是唾手可得。
当陈旧的诈骗手段和场景,用上 AI 变声,或许被害人的数量会出现指数级的暴增。
按照如今的技术发展,AI 能够无中生有的东西太多了。
美国高校的研究团队发布的成果显示,用来换脸的 AI 技术 deepfakes,就已经进化成可以任意生成、篡改视频和语音。
在这个视频中,电视台主持人原本说的是:苹果股价收盘于 191.45 美元。然而却被 AI 将数字改为“182.25 美元”。
视频的口型变了,发音也随着变了。
篡改后的视频,骗过了 59.6% 的试验者。
AI 换脸、变声,让静态人像照片说出特定的话,让一个静态人像做出各种肢体动作……
我联想到了一个细思极恐的场景。
比如当我的手机收到消息:
我是你领导,马上给我转 100 万到 XXXXXXXX 这个账户。
文字、语音太抽象?
诈骗分子发来一张用领导照片合成的讲话视频,还做出他的经典动作。
想打个电话确认?电话另一头可能是 AI 变声的诈骗分子。
视频通话确认一下?屏幕上那个人,可能是 AI 换脸的诈骗分子。
当然,这个“领导”,还可能是诈骗分子伪装的父母长辈、兄弟姐妹、同事、朋友……
这可怎么防呀?难道,为了防止跟自己远程沟通的人是冒牌货,可能要对暗号了?那可能暗号还需要经常换才管用。
如何监管被滥用的 AI ?
随着人工智能技术的发展和应用,我们在享受这项技术所带来的创新、便捷,也应该对这项技术进行必要的规范和监管。
AI 换脸、换声这类技术,不仅造成了“色情报复”、政治风险,也在让各类网络诈骗有可乘之机。
诈骗分子会使用新型技术进行犯罪,利用 AI 换脸、变声等手段去伪造视频或假冒角色,在网络诈骗的场景中应用。
当伪装手段变得高明,防范的难度也将急剧上升,被迷惑、诈骗的人数也有可能爆发。
当一件两件 AI 犯罪事件浮出水面,也意味着背后有大量的人已经遭遇了同类诈骗,或者即将面临网络安全风险。
有网络安全公司公布的数据显示,在 2013-2017 的五年间,语音欺诈数量增长高达 350%,还划了一个重点:
每 638 个电话中,就有 1 个是虚假语音诈骗。
AI 如同一个潘多拉宝盒,它可以成为别有用心的人手里作恶的工具,也可以是造福社会的技术。
在我看来,为了防止这类技术被用来作恶,需要来自多方的共同努力。
首先,我们需要有技术和方法去有效识别虚假的 AI 信息,通过技术去对抗黑产。可以预知的是,这类造假与识别造假的技术对抗,只会不断动态升级,不会停止。
其次,作为提供服务的互联网平台,也需要承担起监督和管理的责任,依法保护用户数据和用户隐私,并且建立防治虚假信息的机制,积极参与黑产打击。
随着人工智能技术逐渐大规模应用,法律政策层面的立法、监管也需尽快出台,从而明确规范、有法可依,进一步保障公众的网络安全。
与此同时,公众也应该及时了解技术发展的趋势,增加自身防骗的意识和能力,提高警惕。