人工智能时代内容生成的伦理治理
学习时报 / 2025-04-21 13:04:36
对虚假错误内容治理要形成多元合力
学习时报:由于生成式人工智能技术的低门槛、普及化特性,参与主体也比以往更为广泛和多元,政府、研发企业、应用平台、用户、普通大众等都是直接参与者和利益主体。刚刚讲了政府治理理念的调整,企业在内容治理中要承担哪些责任?
薛澜:在人工智能时代的内容生成生态中,企业作为技术开发和应用的主体承担着重要的责任。针对人工智能产业发展所带来的风险,我国已经形成了较为立体的治理体系,可以分为上、中、下层。上层是2019年发布的《新一代人工智能治理原则——发展负责任的人工智能》和2021年发布的《新一代人工智能伦理规范》。中层是针对人工智能具体领域的法律法规,比如2023年发布的《生成式人工智能服务管理暂行办法》、2025年发布的《人工智能生成合成内容标识办法》等。下层就是鼓励企业加强内部机制建设,成立伦理委员会等。不论是技术开发企业还是技术应用平台企业,都必须遵守国家相关的法律法规要求,确保生成的内容健康、准确、真实,并严格按照内容标识办法对人工智能生成的内容进行标注,确保消费者的知情权。
除了合规性要求,企业还需要多做一步,投入更多时间和精力做好技术自纠,防范和应对自身技术系统被恶用的风险。比如通过预训练数据清洗,对某些敏感数据进行有效识别并剔除,提高源头数据质量;在内容生成过程中设置过滤环节,及时识别用户的主观滥用、恶用意图,拦截违规生成内容;对医疗等敏感领域的内容生成实施人工审核兜底;通过用户反馈学习,拒绝违背法律法规、社会公序良俗的内容生成要求,降低模型伦理风险;等等。
学习时报:在内容生成生态的治理中,除了要发挥有效市场和有为政府的作用,我看到您的团队还提出了“有机社会”的治理理念。
薛澜:打造良好的内容生成生态,不仅要发挥政府、企业的作用,更需要形成利益共同体意识,建立多元治理格局,重视公众在内容生成生态治理中的地位和作用。
首先,公众具有用户和受众双重角色,能够直观感知内容生成质量。要提高他们的辨别能力和维护良好内容生态、参与社会伦理判断的责任意识,对不良生成内容及时反馈,必要时对各类虚假错误内容或恶意应用行为进行举报,配合有关部门加强监督。
其次,使用者推动技术创新。随着新一轮科技革命和产业变革的深入发展,传统以生产者为中心的创新模式逐渐被以使用者为中心的创新模式所替代。使用者创新是指产品的最终用户基于自身需求和使用经验,对现有产品或服务进行改进或重新设计,甚至开发出全新解决方案的创新行为,其核心驱动力在于使用者对实际应用场景的深刻理解和对新需求的切身感知。生成式人工智能技术的研发与应用本身是满足市场需求的结果,而用户在使用过程中会由于新需求的出现,产生对现有技术的优化需求,从而对生成式人工智能技术进行需求导向的创新重塑。因此,我们应该积极鼓励公众广泛参与,发挥使用者创新的集体智慧,促进内容生成技术的功能优化和使用场景的创造性拓展。
最后,公众作为使用者也应加强自律意识,善用生成式人工智能技术,明确新技术新工具是用来创造价值、增加社会福祉的。在内容传播上要有责任意识,对接触到的虚假错误内容要坚决说“不”,从个体做起,汇聚推动人工智能技术良性发展的善意力量。反过来,为了提高公众对人工智能技术的认识和理解、对虚假错误内容的辨别能力,政府和有关机构要着力推动科普教育力度,建立信息验证平台,利用讲座、展览等方式普及人工智能技术的基本原理和应用场景,帮助他们认识技术的局限性和各类潜在风险。借助各类公众号、视频号等新媒体平台发布科普文章和视频,提升公众的科学素养和防范意识,培养公众对接收到的各类信息的正确态度和阅读习惯,为构建良好的内容生成生态营造良好的社会环境。
现在,很多机构在积极开发相关的内容监测平台,这方面存在很大技术潜力和积极社会价值。但事实核查有着巨大挑战,目前的治理存在着“道高一尺、魔高一丈”的困境,需要建立政府主导、产学研协同、公众广泛参与的立体化治理体系,形成强大的治理合力。
总之,创新和治理的平衡是人工智能技术发展的永恒主题。
特别提示:凡注明“来源”或“转自”的内容均自于互联网,属第三方汇集推荐平台,版权归原作者及原出处所有。分享的内容仅供读者学习参考,不代表中国经济形势报告网的观点和立场。中国经济形势报告网不承担任何法律责任。如有侵权请联系QQ:3187884295进行反馈。

1.本站遵循行业规范,任何转载的稿件都会明确标注作者和来源;
2.本站的原创文章,请转载时务必注明文章作者和"来源",不尊重原创的行为本站或将追究责任;
最新新闻
热点文章
