am928 发表于 2025-4-22 19:18:33

AI换声换脸诈骗案件频发:免费试用揽客、明星换声视频引流成新趋势

当前发生了多起因 AI 换脸换声而导致的诈骗案件。AI 换声的生意开始显现:有些公司通过免费试用吸引顾客,排队的人很多,若想跳过排队或享受更多服务就需要充值。还有公司借助明星换声视频来引流以售卖 AI 换声服务,制作 AI 换声视频的单价是 3 元每秒。

全文3381字,阅读约需9分钟

新京报贝壳财经有见习记者韦博雅和记者罗亦丹,由岳彩周进行编辑,杨许丽和陈荻雁负责校对。

利用语音合成技术,赵本山用英语演小品。图/网络视频截图

赵本山进行英文小品表演、郭德纲用英文来讲相声、范明以英文来演戏……近期,诸多中国具有“乡土气息”的明星开口说英语的相关视频引起了人们的关注。

中国的明星会飙英文,网络上传播着许多外国明星用中文接受采访的视频,像泰勒·斯威夫特、安妮·海瑟薇等。有的视频脱离了原本的内容,只用明星的脸,加上创作者的声音和内容,能让安妮·海瑟薇唱起“东北 rap”。

新京报贝壳财经记者发现,目前有专业公司在提供 AI 换声服务。其中有一家公司很火,它名为[具体公司名]。该公司在 9 月 7 日上线了视频翻译功能,之后在国外社交平台上迅速走红。这家公司通过免费试用吸引顾客,排队的人数很多。如果想要跳过排队或者享受更多服务,就需要充值。

有些公司借助明星换声视频来吸引流量,以此售卖 AI 换声服务。制作 AI 换声视频的单价是 3 元每秒,这些视频最短 30 秒,最长可达 5 分钟。

值得注意的是,AI 换声存在着法律风险,比如侵权等。并且这一技术有可能被不法分子利用,从而成为 AI 诈骗的新手段。

━━━━━

从熊猫阿宝秀中文到赵本山飙英语,

AI换声是如何以假乱真的?

贝壳财经记者发现,这一系列视频的火爆有其源头。源头在于 B 站 UP 主“”的视频《这才是没有译制片腔调的翻译!》,此视频在 10 月 17 日发布,到 11 月 3 日时已有 254.5 万的播放量。后来被各类短视频账号广泛引用的“憨豆先生讲中文”“蔡明讲英文”等视频,其来源正是该视频。

https://img2.baidu.com/it/u=2391372633,2408534776&fm=253&fmt=JPEG&app=120&f=JPEG?w=800&h=500

在这一视频里,其表示要达成此类效果需同时满足三个条件。一是要有地道的口语翻译;二是要能克隆说话者的声音;三是要把嘴型进行更换。

而实际上,上述三个条件均可以通过AI技术实现。

语言之间的互相翻译已经是一项成熟的技术。“机器翻译”成为不少作品跨国传播的简单途径。国内的腾讯、科大讯飞等都已推出此类同声翻译技术多年。

在今年上半年 AI 孙燕姿爆火之际,对于克隆说话者的声音就已经有了成熟的技术路径。创造出 AI 孙燕姿的技术是 AI 音色替换技术,其来源是 so-vits-svc 模型,这是一款由中国歌声合成爱好者 Rcell 开发的 AI 语音转换项目。该技术原理是用孙燕姿的声音去“替换”其他歌手的干声,从而达到以假乱真的效果。

在口型替换这方面,2015 年《功夫熊猫 3》引入中国之时,该片的主创团队曾透露,他们按照中文台词给每个角色都重新制作了口型和表情,所以观众会觉得阿宝原本说的就是中文。2019 年,多个研究团队推出了机器算法,这些团队包括斯坦福大学、普林斯顿大学等。该算法能够编辑头部特写对话视频,它会从其他视频里寻找人物讲话时的嘴部动作,进而生成新的视频。

AI 配音视频若要与原视频完全取得一致,那么符合原视频时长以及情景的翻译是不可或缺的。同时,对于此,一个精妙的翻译也是不可或缺的。

11 月 3 日,他告知贝壳财经记者,在这类 AI 配音视频中,翻译所占比例为 90%,而克隆声音和换嘴只是起到辅助作用,所占比例为 10%。在他的观点里,相声小品中那些有梗的句子,是机器无法翻译的。

AI 换声生意方面,有的公司凭借免费试用的方式来招揽顾客,有的公司依靠明星换声来进行引流,并且制作换声视频的价格是 3 元每秒。

与之相伴,AI换声生意也正在浮出水面。

事实上,目前已有科技公司推出了把这三项技术结合在一起的“打包翻译服务”。其中有一家公司特别火,它叫[具体公司名]。这家公司在 9 月 7 日上线了视频翻译功能,之后在外国社交平台上快速地走红了。目标是“消除语言障碍”。公司联合创始人兼首席执行官 Xu 表示:“我们设想在未来,制作视频内容以及传播信息时使用不同语言,会如同打字那般简单。”

在其“视频翻译”功能里,用户能够通过上传一段不超过 1GB 大小的视频,并且选择“想要翻译的语言”,以此来实现 AI 换声功能。这项功能现在极为火爆。贝壳财经记者在上午 8 点上传了一段视频,视频显示已进入排队等待序列,前面有 3.48 万人。当记者等待到 11 点 25 分时,前方排队的人数还有 3.21 万人。目前,每名用户能够免费试用两次视频翻译服务,然而若想跳过排队或者享受更多服务,就需要进行充值。

从官网上的信息可知,仅看名字的话,公司的两名创始人是 Xu 和 Wayne Liang,他们均为华裔。并且在 Wayne Liang 的履历中,有“字节跳动美国公司前设计主管”这样的介绍。

11 月 2 日,记者通过抖音平台联系了一家使用明星视频进行 AI 换声的公司客服。对方表示,制作 AI 换声视频的单价是 3 元每秒。并且视频最少 30 秒,最长 5 分钟。客服还称,该技术能够把作者的原声视频进行中英语言的互译。

记者询问能否使用明星的视频当作换声素材,客服称不建议再用明星,因为存在版权问题隐患。公司靠此引流卖服务且自身也要调整。同时,客服表示若客户坚持用明星素材,公司可提供转换服务,但客户需承担后续影响。

客服称,客户使用这一服务的目的各不相同,有的是想要进行文化出海、出海卖货,还有人只是觉得好玩。关于原视频的质量要求,客服表示,视频中人物的嘴部不能被遮挡,最好不要有多人对话和画外音,同时也不能有背景音乐和杂音,因为这些都会影响视频的生成效果。

贝壳财经记者发现,有网友在社交媒体上分享了制作这类视频的工具。在一款名为“Rask AI”的软件中,只需将视频通过本地上传,接着选择视频所需要转换的语言,然后点击生成,AI 就会自动进行处理。处理后的视频,其人物说话口型与所用语言是一致的。

━━━━━

https://img1.baidu.com/it/u=879761404,2034406562&fm=253&fmt=JPEG&app=120&f=JPEG?w=500&h=668

AI换声服务有的涉嫌侵犯作品的翻译权

记者发现,AI 换声的事件并非仅存在于影视行业。今年 5 月,“AI 孙燕姿”翻唱多首歌曲的事件引起了关注。有法律人士称,这类 AI 孙燕姿的作品存在版权方面的问题。

北京市中闻律师事务所的合伙人赵虎向贝壳财经记者表示,明星 AI 换声短视频有可能侵犯三种权利。其一为翻译权,按照《著作权法》的相关规定,不管是郭德纲的相声还是赵本山的小品,都属于作品,拥有著作权。并且著作权包含一项子权利即翻译权,倘若要对一个作品进行翻译,就应当获得原作品著作权人的授权。其二是信息网络传播权。如果未取得他人作品的信息网络传播权,却将他人作品上传至短视频平台,那么便侵犯了他人作品的信息网络传播权。再者,录音录像制作者权方面,未经授权在互联网上传播录像制品属于侵权行为。

━━━━━

要警惕 AI 换声所蕴含的诈骗风险,当接到骚扰电话时,要留意对方是否会窃取你的声音。

值得警惕的是,AI 换声所带来的风险离普通人的生活并不远。记者发现,当下已经发生了许多起因 AI 换脸换声而引发的诈骗案件。

今年 9 月,徐州警方公布了一则关于 AI 换声诈骗的案件细节。高中生晶晶忽然收到了“好友”的转账求助。因为担心被骗,晶晶让对方发了一段语音。在确认那是她熟悉的高中同学之后,晶晶通过 转给了对方 2000 元。然而,收到钱之后,对方就消失了。接着,晶晶才意识到自己被骗了。

这并非个例。

今年 5 月,包头市公安局公布了一则案件细节。郭先生的好友突然通过微信视频与他取得联系,并且表示想要借用郭先生公司的账户走一下账。因为是在视频聊天的信任基础上,所以郭先生先后分两笔将 430 万元打给了对方。最终,郭先生发现自己遭遇了“高端”骗局,对方借助智能 AI 换脸技术,伪装成好友对他实施了诈骗。郭先生说,他在视频里确认了面孔和声音,正因如此他才放松了戒备。

多地警方已揭秘 AI 诈骗常用手段,其中包括“声音合成”方面的 AI 深度造假。骗子会通过骚扰电话录音等方式提取某人声音,获取素材后进行声音合成,这样就能用伪造的声音骗过对方。

10 月 13 日,国家金融监督管理总局在一则《风险提示》中指出,利用 AI 新型技术实施诈骗存在两种主要手段。其一为“拟声”,也就是通过模拟他人声音来骗取信任;其二为“换脸”,即通过模拟他人形象来骗取信任,进而诈骗钱财。国家金融监督管理总局提醒广大金融消费者:其一,在网络渠道中,眼见的情况未必就是真实的;其二,进行转账汇款时,一定要核验对方的身份;其三,要妥善保护好照片、声音等个人信息。

值班编辑 康嘻嘻 古丽

本文部分首发自新京报公号“新京报贝壳财经”
页: [1]
查看完整版本: AI换声换脸诈骗案件频发:免费试用揽客、明星换声视频引流成新趋势