中宏国研信息技术研究院官网
  •   [会员中心]  [退出]
  • 注册
  • 会员服务
首页 > 金融科技 > 人工智能时代内容生成的伦理治理 详情

人工智能时代内容生成的伦理治理

学习时报 / 2025-04-21 13:04:36
人工智能时代内容生成的伦理治理
——访清华大学文科资深教授、人工智能国际治理研究院院长薛澜
 
技术进步带来虚假错误内容的生成风险
 
学习时报:近年来,生成式人工智能引起社会各界大范围关注。与以往内容生产主要依赖于人类自身的经验和创新相比,人工智能时代内容生成的核心变革体现在哪些方面?
 
薛澜:与以往人类社会的内容生产机制相比,从大数据中自动获取知识的机器学习是人工智能时代的主要机制和技术驱动力。随着大数据技术在多领域的广泛应用和市场规模的快速增长,生成式人工智能技术已成为人类进行内容生产的有力工具,拓展了新创意的展示方法,大大超越了人类以往的内容生产效率,甚至正在重塑人类社会内容生产和传播的底层逻辑。
 
人工智能技术对内容生产的颠覆性突破,首先体现在生产效率的指数级提升。比如,在传统内容创作中,一部作品往往需要很长一段时间,但通过大语言模型,只需要输入提示词或者初步构想,就可以实现秒级生成。其次,生成式人工智能技术的广泛应用在很多领域大幅降低了知识获取和内容创作的门槛,这不仅降低了专业创作的成本,更赋予了普通用户参与内容生产的能力,在一定程度上创造了“全民创作”的可能。
 
学习时报:对于各种生成式人工智能技术的开发应用,人们在享受便利的同时,也正在经受着各类虚假错误内容的困扰,您怎么看这类问题的产生?
 
薛澜:技术红利与技术缺陷是共生共存的。从生成机制上说,生成式人工智能带来的虚假错误内容主要分为三类。
 
一是人工智能技术本身具有的内生风险。比如,技术幻觉风险在内容生产过程中普遍存在。技术本身无法对源头数据进行真假辨别,加上理解能力有限、模型架构缺陷等原因,人工智能技术在实际应用中呈现出一定的内容重构特征,可能输出看似严谨合理,实际上却与事实或逻辑不符的虚假错误内容,出现“一本正经地说假话”现象。
 
二是技术开发过程中的风险。技术的算法歧视是由训练数据的思维映射而引发的。人工智能技术在训练、学习过程中所用数据,都是人类社会以往产生的,必然带有主观色彩和人类活动特征。生成式人工智能应用的过程,实质上是对过往人类社会模式的特征进行总结并用来对未来社会进行感知和决策的过程,复制并延续传统社会特征自然也就不可避免,使得现阶段生成式人工智能技术无法完全避免歧视。整体而言,人类借助以往的经验、知识储备和信息查证,相对容易识别技术内生风险、开发训练风险引发的虚假错误内容。
 
三是基于技术应用或滥用的风险。任何技术本质上都是工具,它的伦理困境在于使用的方向问题。对这类风险要辩证看待。第一种情况,在善意的应用中带来了无意的负面影响。例如,网友用人工智能“复活”已故明星,本意是表达怀念,但未经家属同意,反而可能让逝者亲属再次承受痛苦,甚至涉及肖像权争议。技术应用初衷是善意的,但因缺乏伦理考量,带来了情感伤害和法律风险。第二种情况,深度造假与恶意应用。由于技术加持,主观恶意的内容造假突破了以往“耳听为虚、眼见为实”的真实性判断方式,语音合成、视频换脸等生成的“超真实”虚假内容冲击着社会信用基础,“眼见未必为实”具有以往谣言难以企及的破坏力,传统社会信用评判方式面临着崩塌风险。而且,恶意应用的危害力因技术的普及而成倍增长。更严峻的情形是,一些主观恶意的虚假错误内容生成已经形成完整的产业链条,从定制虚假内容生产到隐秘传播渠道,呈现出专业化、规模化的特征。与技术缺陷导致的虚假错误内容相比,这类内容更不易被发现,危害程度更大。
 
所以,我们对人工智能技术进行监管,主要是建立一个合理的治理体系,对滥用、恶用人工智能技术所带来的各类已经产生的危害或尚未有实质危害的潜在风险进行规制。
 
特别提示:凡注明“来源”或“转自”的内容均自于互联网,属第三方汇集推荐平台,版权归原作者及原出处所有。分享的内容仅供读者学习参考,不代表中国经济形势报告网的观点和立场。中国经济形势报告网不承担任何法律责任。如有侵权请联系QQ:3187884295进行反馈。

1.本站遵循行业规范,任何转载的稿件都会明确标注作者和来源;
2.本站的原创文章,请转载时务必注明文章作者和"来源",不尊重原创的行为本站或将追究责任;