摘要:深度思考,这个“深度”也对应着“深度伪造”“深度模仿”“深度欺骗”“深度混淆”,让机器与人创作的界限越来越模糊,真假难分,以假乱真。享受“深度”带来的技术红利时,不能让“深度”成为某种欺诈的幌子。“深度”应该成为一种提供思考价值的深度,而不是一种让赝品看起来很深沉、伪装得很深的“障眼法”。人工智能的“深度”越来越像“人”,这时候,越需要去划出边界,作出强制标识,方便公众去区分。
吐槽青年出品
当一切朝一个方向进行时,朝相反的方向深深地看一眼。AI发展太快了,当人们兴奋地沉浸在AI红利中时,珍惜那些冷静的提醒,全国人大代表李东生“对AI生成内容强制标识”的建议,我很赞同。你可以赞美和崇拜AI生成内容,为“替代创作”沾沾自喜,但得让人知情、区分并选择。
李东生今年带来了关于加强AI深度伪造欺诈管理的建议,他认为,随着生成式人工智能技术的发展,深度伪造技术也快速发展。要规范对于这一新兴技术的不当利用行为,有必要要求深度合成服务提供商对人工智能生成的内容进行强制标识,减少恶意滥用,并厘清责任、对违法犯罪行为追责。李东生建议,明确对人工智能深度合成服务商未履行标识义务的惩罚制度,完善对深度合成内容服务提供商未按要求进行标识的行为界定、分类细则,以及相应的处罚标准。
对于AI生成的内容,我是能够一眼就看出的,看了这么多文字,对“人的痕迹”还是有基本的嗅觉的,但不能寄望于“受众判断”去鉴别AI,必须强制标识。没有基本的透明和知情,很容易形成“机器驱逐人类”“劣币驱逐良币”的逆淘汰结果,冲击既有的信息生产和主权体系。“这是一个人创作的”是当下人们对一个作品的基本预设,人是创作的当然主体,这也是既有的知识产权体系、法律溯因体系、权责分配体系所预设的前提,一个作品,涉及收益分配与权责归属。是人创作的,还是机器生成的?不同的创作主体,人们的判断标准和接受心态是不一样的,愿意支付的成本更不一样,必须以清晰标识的方式让人充分知情。
深度思考,这个“深度”也对应着“深度伪造”“深度模仿”“深度欺骗”“深度混淆”,让机器与人创作的界限越来越模糊,真假难分,以假乱真。享受“深度”带来的技术红利时,不能让“深度”成为某种欺诈的幌子。“深度”应该成为一种提供思考价值的深度,而不是一种让赝品看起来很深沉、伪装得很深的“障眼法”。人工智能的“深度”越来越像“人”,这时候,越需要去划出边界,作出强制标识,方便公众去区分。
很多时候,人们不患“假”,而患“拟真仿真”“伪自然”,就是看起来比真的还真,比自然还自然。让人知道那是“AI生成的”,从而便于人们作出判断和决策,这个要求不过分吧。透明是一种基本的真诚,也是一种新技术新应用让人们接受时应有的伦理自觉:不仅展示自己强大的一面,也把可能的局限袒露出来,以透明去面对一种新事物出现时人们必有的道德焦虑,在对称的信息、可选择的自由下让自己接受竞争的筛选。如果一种技术真的足够强大,就不会惧怕信息对称下的知情选择。
当下的技术应用场景下,乱花渐欲迷人眼,信息极不透明,“深度”形成巨大的迷惑性,有太多需要“强制标识”。比如预制菜,你别跟我说“预制菜多好多好”,别宣传“预制菜对人体健康没有危害”,把预制菜夸得跟花儿一样,只要是预制菜,必须强制标识,尊重用户的选择权利,在市场自由选择过程中去界定预制菜的品质并给预制菜一个定价。还有转基因食品,不要拿专家的判断去吊打普通人,不要总试图说服普通人,普通人可以有保留自身担忧的权利。必须用强制标识让普通人充分知情,接受是一个“自由选择”的过程。不是只给公众一个结论,而应该让信息透明,经受“不同比较”的批判性思考,在“自由选择”中让公众“参与结论”。
还有短视频摆拍,也是如此,别拿“这明显就是一个摆拍的段子,不是真事”为误导用户打掩护,必须对“摆拍”进行强调标识,就像印在烟盒上的“吸烟有害健康”那样显眼地标识。严重的信息污染,多数人未受到过媒介素养的训练,很难辨识“有剧本的摆拍”,不给把这种辨识责任推给用户和公众。还有包括人脸识别采集、连续包月的退出门槛、临期食品、监控摄像头,等等,都需要强制标识,技术的扩散应该是协商性的、可选择的,不能变成一种侵犯性的权力。
并不排斥新事物,也不否认它的应用会给公众带来诸多红利,但“强制标识”对新技术是一种检验:真的强大,真的利好,应该不惧于在“强制标识”下接受审视与筛选。这种筛选也包含着一种功能倒逼,倒逼一种新技术约束和规范其恶的一面,充分激发其积极向善的那一面。