在今年上半年 AI 孙燕姿爆火之际,对于克隆说话者的声音就已经有了成熟的技术路径。创造出 AI 孙燕姿的技术是 AI 音色替换技术,其来源是 so-vits-svc 模型,这是一款由中国歌声合成爱好者 Rcell 开发的 AI 语音转换项目。该技术原理是用孙燕姿的声音去“替换”其他歌手的干声,从而达到以假乱真的效果。
记者发现,AI 换声的事件并非仅存在于影视行业。今年 5 月,“AI 孙燕姿”翻唱多首歌曲的事件引起了关注。有法律人士称,这类 AI 孙燕姿的作品存在版权方面的问题。
北京市中闻律师事务所的合伙人赵虎向贝壳财经记者表示,明星 AI 换声短视频有可能侵犯三种权利。其一为翻译权,按照《著作权法》的相关规定,不管是郭德纲的相声还是赵本山的小品,都属于作品,拥有著作权。并且著作权包含一项子权利即翻译权,倘若要对一个作品进行翻译,就应当获得原作品著作权人的授权。其二是信息网络传播权。如果未取得他人作品的信息网络传播权,却将他人作品上传至短视频平台,那么便侵犯了他人作品的信息网络传播权。再者,录音录像制作者权方面,未经授权在互联网上传播录像制品属于侵权行为。
━━━━━
要警惕 AI 换声所蕴含的诈骗风险,当接到骚扰电话时,要留意对方是否会窃取你的声音。
值得警惕的是,AI 换声所带来的风险离普通人的生活并不远。记者发现,当下已经发生了许多起因 AI 换脸换声而引发的诈骗案件。
今年 9 月,徐州警方公布了一则关于 AI 换声诈骗的案件细节。高中生晶晶忽然收到了“好友”的转账求助。因为担心被骗,晶晶让对方发了一段语音。在确认那是她熟悉的高中同学之后,晶晶通过 转给了对方 2000 元。然而,收到钱之后,对方就消失了。接着,晶晶才意识到自己被骗了。
这并非个例。
今年 5 月,包头市公安局公布了一则案件细节。郭先生的好友突然通过微信视频与他取得联系,并且表示想要借用郭先生公司的账户走一下账。因为是在视频聊天的信任基础上,所以郭先生先后分两笔将 430 万元打给了对方。最终,郭先生发现自己遭遇了“高端”骗局,对方借助智能 AI 换脸技术,伪装成好友对他实施了诈骗。郭先生说,他在视频里确认了面孔和声音,正因如此他才放松了戒备。
多地警方已揭秘 AI 诈骗常用手段,其中包括“声音合成”方面的 AI 深度造假。骗子会通过骚扰电话录音等方式提取某人声音,获取素材后进行声音合成,这样就能用伪造的声音骗过对方。
10 月 13 日,国家金融监督管理总局在一则《风险提示》中指出,利用 AI 新型技术实施诈骗存在两种主要手段。其一为“拟声”,也就是通过模拟他人声音来骗取信任;其二为“换脸”,即通过模拟他人形象来骗取信任,进而诈骗钱财。国家金融监督管理总局提醒广大金融消费者:其一,在网络渠道中,眼见的情况未必就是真实的;其二,进行转账汇款时,一定要核验对方的身份;其三,要妥善保护好照片、声音等个人信息。