点击右上角微信好友
朋友圈
请使用浏览器分享功能进行分享
作者:孔小平
近日,老牌港星黄百鸣公开发布声明,称有人盗用自己过去的影片,并通过AI技术替换了电影原声,呈现为他“代言”了某一药膏品牌。刚刚过去的国庆假期,也有人上传了大量小米CEO雷军的AI音频而成为舆论热点。
“高仿”名人一般直接以诈骗为目的,利用公众对偶像名人的情感,骗取网民捐赠、用户打赏、重金购物,手段多样,让人防不胜防。当然,除了明星和公众人物,也有不少涉及普通人的AI犯罪。这不仅侵害了相关主体合法权益,也破坏了健康的网络生态,干扰社会正常秩序,成为公共治理难题。
“AI诈骗正在全国爆发”的词条一度登上热搜,一时讨论声四起。多地公安机关曾发布过相关提醒,司法机关也发布了多起利用AI实施犯罪的典型案例。不断有法律界人士指出,AI生成内容的激增,引发了人们对其透明度、真实性和误导性的关注和忧虑。充斥于各大网络平台的虚假AI生成内容,也成为滋生民事侵权乃至刑事犯罪的温床,影响了消费者与平台之间的信任关系,进而阻碍了人工智能产业的良性健康发展。
毫无疑问,人工智能领域应建立有效的法律框架。相关监管已经在路上——9月份,国家网信办起草的《人工智能生成合成内容标识办法(征求意见稿)》对AI“专属水印”的要求更加细致,不仅规定文本、音频、图片、视频、虚拟场景中,提示用户的显式标识应出现的位置,还指出生成AI合成内容的文件元数据,应添加隐式标识,以记录文件的来源、属性、用途、版权等关键信息。这意味着,今后AI生成内容一旦造假,溯源将更加清晰。
要知道,此前AI标识最大的困境在于用的人不主动标、传播的平台不主动管,一出事就扯皮相互推诿。此次意见稿的另一个亮点就是,AI服务提供者、应用商店、平台网站、用户、主管部门均为责任主体,覆盖AI全生命周期。有法律界人士表示,此类“专属水印”相当于让“AI”公开和透明,是防范生成式人工智能应用风险的第一步。可以肯定的是,让AI生成合成的内容无所遁形,对AI滥用的预防具有一定效果。不过,仍应从主体资质、业务规则、法律后果等多个层面做出规制,才能更全面地规避风险隐患。(孔小平)