利用AI克隆声音须严守法律边界

时间:2026-04-01 07:17:15| 来源: 法治网

□ 程啸

近日,多名配音演员公开发声,反对擅自采集其声音素材用于AI训练、音色合成及商业变现的行为,自然人声音权益保护问题由此进入公众视线。事实上,利用人工智能技术克隆他人声音的侵权行为及引发的纠纷并非新鲜事。2024年4月,北京互联网法院就审结了全国首例“AI声音侵权案”。该院判决认定,被告未经合法授权即使用原告声音、开发案涉AI文本转语音产品,构成侵权,赔偿原告各项损失25万元并书面赔礼道歉。

在前人工智能时代,传统的录音技术只是将已有的声音固定到一定的物质载体上以备重现。但随着人工智能技术的快速发展,如今利用声音数据和深度学习模型,便可以对声音特征进行建模与学习,从而进行声音克隆、语音转换等AI声音处理活动。其中,声音克隆属于深度合成技术的一种,其通过对特定自然人的语音数据进行深度学习,训练出相应的人工智能模型,进而生成与该特定自然人声音高度相似的语音内容。这项技术的核心,在于对人的声音特征进行建模与再现。如果未经本人同意或无法定事由,克隆生成与其声音高度相似的声音,就会侵害其声音权益。依据我国民法典、个人信息保护法等法律,自然人的声音可以通过肖像权、个人信息权益加以保护;在某些情形下,还可以通过著作权法以及反不正当竞争法加以保护。

依据民法典,自然人的声音权益可参照适用肖像权保护的规定。由于每个自然人在音色特征、发音习惯、语速节奏、声音质感等方面都有所不同,因此声音作为个人的生理标识,与肖像一样,可以用于识别特定的自然人。例如,一些著名艺术家、演员的声音就为社会大众所熟悉。虽然我国法律没有将声音权规定为一项具体的人格权,但为防止他人随意复制、模仿、伪造特定自然人的声音,损害自然人的人格尊严和财产利益,民法典第1023条第2款明确规定,“对自然人声音的保护,参照适用肖像权保护的有关规定”。也就是说,民法典中关于禁止他人擅自制作、使用、公开肖像权人肖像的规定,关于肖像合理使用的规定,以及关于肖像许可使用合同的规定,都可参照用于对自然人声音权益的保护。

同时,还可根据个人信息保护法对自然人的声音加以保护。自然人的声音属于个人信息。通过技术手段从声音中提取的、能够反映特定个体声音特征的声学特征模式(声纹),属于自然人的生物识别信息,是敏感个人信息。依据个人信息保护法,自然人对其个人信息的处理享有知情权和决定权,有权限制或拒绝他人处理,除非法律、行政法规另有规定。因此,任何人要利用自然人的声音来训练人工智能语音产品或者克隆其声音,都必须取得该自然人的单独同意或具备法定事由。否则,声音被他人非法处理的自然人,有权以侵害个人信息权益为由提起诉讼。

实践中,自然人是通过肖像权还是个人信息权益来保护声音权益,区别主要在两个方面。一是可识别性的认定标准。如果原告以侵害肖像权为由起诉非法进行声音克隆的行为人,就必须判断通过人工智能生成的声音能否识别出原告本人。司法实践中,被告往往会抗辩称,案涉声音经AI处理,不具有可识别性,社会公众难以仅凭声音识别出原告声音。而对于克隆后的声音是否具有可识别性,应当以社会一般人听到该声音后能否识别出特定自然人为标准。社会一般人的具体范围,需结合声音主体的社会知名度等因素来确定。如果原告以侵害个人信息权益为由起诉,那么在认定被告所处理的声音信息是否属于个人信息时,可采取技术判断标准。换句话说,即便社会一般人通过听觉无法识别出特定自然人,但只要通过声纹比对等技术手段能确定是原告的声音,就应当认定该声音为原告的个人信息,被告的行为构成侵权。

二是侵权赔偿责任的归责原则。原告参照肖像权保护的规定起诉,适用的是民法典第1165条第1款规定的过错责任原则,即原告需要证明被告在克隆或使用声音时存在主观上的过错。而如果以侵害个人信息权益起诉,考虑到个人信息处理者与个人之间技术能力等方面的不对等,适用的是个人信息保护法第69条第1款规定的过错推定责任,即由个人信息处理者证明自己没有过错,而非由个人证明处理者有过错。

(作者系清华大学法学院教授、个人信息保护与数据权利研究中心主任)

来源: http://www.legaldaily.com.cn/index/content/2026-04/01/content_9366189.html

责任编辑:SONGZIDONG

X{pboot:pagetitle}

截屏,微信识别二维码

客服QQ:9

(点击QQ号复制,添加好友)

微信号已复制,请打开微信添加咨询详情!