无障碍
x

全部频道

评论> 正文

别让“证明我是我”成为AI时代的日常荒诞

2026-05-03 06:39 央视网

来源标题: 别让“证明我是我”成为AI时代的日常荒诞

最近,有两起与AI“假人”相关的热点,引起不少人的思考和忧虑。

一是演员王劲松的形象被AI深度伪造,制成财富诈骗视频,逼真到其本人惊呼“连我家人都分不清”。

二是复旦大学肖仰华教授团队开发的AI智能体,自主在朋友圈发状态、评论区互动,自然到好友留言要求“证明你真的是肖老师”。

一面是产作恶,用AI“假扮他人”一面学术展示,用AI“代替自己”。二者看似相悖,但都造成了身边的熟人突然间无法确认“你是你”。当你的面容、声音乃至行为模式都被AI精准复刻或代理,社会赖以运转的信任基石,也面临前所未有的消解风险。

进一步看,这两种“假人”的影响层次与应对逻辑,又有所区别。

AI伪造视频,是人为设计的骗局,危害在于“污染”信息的事实层。其背后,存在治理链条的全方位滞后:源头上,虽有生成式内容需有AI标识的法律规定,但监管与灰色产业的“猫鼠游戏”从未停止,灰产的规避手段层出不穷;传播中,面对海量伪造内容生产,平台分发审核机制有诸多不足,“事后删除”也赶不上“事前造假” 的速度;惩戒上,如王劲松所言,法律对违法者的处罚“代价可以忽略不计”,监管的威慑力亟待强化。

而AI智能体,则指向了更深层、更前沿的挑战——开始侵入人们观点的表达与情感的互动层面。智能体自主规划并完成“发朋友圈互动”这一行为链,意味着AI能力已从静态的身份冒用,跃升为动态的行为代理。问题是:AI智能体是否能被赋予某种法律主体资格?其行动的伦理边界在哪里?若造成损害,责任应由哪方承担?这已是对既有社会运行规则的全新挑战。

AI模仿乃至替代部分人类能力的时代已经来了。我们需要的,绝非让技术慢下来、停下来。而要建立超越“堵漏”的被动应对思维,治本之策是为AI的不同应用领域制定清晰的“交通规则”:对作恶行骗的AI“假人”必须重拳出击,提高违法成本,而对前沿的AI创新要明确权责,主动在开发初期嵌入安全和伦理评估。

这种AI时代下“证明我是我”的日常荒诞不能没完没了。

责任编辑:郑涛(QV0003)

北京千龙新闻网络传播有限责任公司版权所有 未经千龙新闻网书面特别授权,请勿转载或建立镜像,违者依法必究新出网证(京)字013号 增值电信业务经营许可证 2-2-1-2004139 跨地区增值电信业务许可证

信息网络传播视听节目许可证0104056号 互联网新闻信息服务许可证11120180003号 京公网安备 11000002000007号

分享到:
QQ空间 新浪微博 微信 腾讯微博 QQ好友 百度首页 腾讯朋友 有道云笔记