无障碍
x

全部频道

评论> 正文

治理AI偷声不能光靠演员反对

2026-03-25 07:07 北京日报

来源标题:治理AI偷声不能光靠演员反对

“有些相似度能达到百分之九十以上,连我自己都要仔细分辨一下。”近日,多位配音演员公开发声,反对未经演员知情同意,擅自采集其声音素材用于AI训练、音色合成及商业变现的行为。

AI偷声不是小事。正所谓“声台形表”,很多配音演员虽人在幕后,但同样受到关注与喜爱,正是因为其独特音色与表演技艺。在一些经典作品中,声音更与角色深度绑定。眼下借助AI工具,轻易就能全盘盗用演员们代入的情感、打磨的心血,还动不动恶搞经典对白桥段,换谁都会心生不满。更令人担忧的是,生成假声已形成灰色产业链,利用公众的熟知,引流涨粉、推广带货甚至胡言乱语,配音演员可能在不知情下就“摊上事了”。

技术突飞猛进,如今似乎只要输入相关素材,就没有AI冒充不了的人。民法典规定,对自然人声音的保护,参照适用肖像权保护的有关规定,即除了个人学习、艺术欣赏等情形外,不得未经同意就制作、使用他人声音。但问题是,相比于人脸,声音很难描述具体特征,且微调音色、语调等就可以做到高度相似,很难直接“认领”。就算能判定所属,网络传播的AI语音多为碎片化二次加工,难以追溯源头和固定证据,又该找谁维权呢?

从舆论呼吁来看,大家普遍希望通过加水印等手段,为AI声音搭建可追溯的安全框架。眼下,一些生成模型也能主动“拒绝任务”,比如禁止生成明星、公众人物、网红等真实人物肖像、语音等。本质上,这些都是靠技术识别,来堵住滥用的出入口。事实上,不仅是公众人物,所有普通人都可能在网上留下各种印记。在社交媒体上分享的“独家图片”,在公开比赛中提交的“首发创意”,或许都会成为AI的训练素材,该如何识别?又是否会在各种“洗稿”中遭到侵权?这也提醒我们,根治AI侵权乃至犯罪,要从源头形成全方位的治理体系。

随着AI工具愈发强大,很多问题也愈发凸显。使用要守好边界,创意要基于尊重,才能让技术打开生活的无限可能,而非打开潘多拉的魔盒。 

责任编辑:郑涛(QV0003)作者:关末

北京千龙新闻网络传播有限责任公司版权所有 未经千龙新闻网书面特别授权,请勿转载或建立镜像,违者依法必究新出网证(京)字013号 增值电信业务经营许可证 2-2-1-2004139 跨地区增值电信业务许可证

信息网络传播视听节目许可证0104056号 互联网新闻信息服务许可证11120180003号 京公网安备 11000002000007号

分享到:
QQ空间 新浪微博 微信 腾讯微博 QQ好友 百度首页 腾讯朋友 有道云笔记