人工智能生成内容的合规监管与伦理道德小议

发布日期:2024-09-19 24:23

来源类型:王月池 | 作者:曾航生

【澳门金牛版正版资料大全免费】【新澳开奖记录今天结果】【2024年新澳门王中王资料】【管家婆最准一肖一码】【新澳彩开奖结果查询】【新澳门内部资料精准大全软件】【4949澳门免费资料大全特色】【2024今晚澳门特马开什么号】【噢门彩资料免费公开】【2O24澳彩管家婆资料传真】
【494949澳门今晚开什么】 【2024新澳免费资料】 【新澳门彩4949历史记录】

#人工智能##知识产权##合规#

AIGC的合规伦理问题是具有挑战性的议题。本文梳理了常见的相关合规伦理义务要点,并尝试探讨应对策略,以确保产品和服务的可持续运营。

作者丨顾萍 詹凯维

随着全球各大公司纷纷涌入人工智能生成内容(“AIGC”)行业,“一键生成”、“改头换面”等AIGC技术也随之普及。人们逐渐对与AIGC相伴而生的虚假信息、侵犯权益、道德伦理、偏见歧视等问题产生担忧。为进一步规范AIGC健康发展和规范应用,在充分吸收了各界意见后,国家互联网信息办公室(“国家网信办”)联合国家发展和改革委员会、教育部、科学技术部(“科技部”)、工业和信息化部(“工信部”)、公安部和国家广播电视总局六部门于2023年7月10日发布了《生成式人工智能服务管理暂行办法》(“《AI服务办法》”),该办法于2023年8月15日生效。《AI服务办法》是我国第一部关于AIGC的法律规范,旨在规范利用生成式人工智能(“AI”)技术向中华人民共和国境内公众提供生成文本、图片、音频、视频等内容的服务。

根据《AI服务办法》第四条,AIGC应当符合“遵守法律、行政法规”和“尊重社会公德和伦理道德”等两方面主要要求,包括不得生成违反主流价值观、虚假有害等法律、行政法规禁止的内容;应当采取有效措施防止不合理歧视;尊重知识产权,不得进行不正当竞争;尊重他人合法权益;提高内容准确性和可靠性等等。有鉴于此,我们尝试根据现行法律法规,梳理出上述法律法规和伦理道德的基本内容,并提出提出部分针对性建议如下,供相关企业参考。

一、国家法律、行政法规合规体系梳理

《AI服务办法》所提到的“法律、行政法规”,包括以下四部法律,未明确提到具体的行政法规。特别地,《AI服务办法》还提到了以下两份部门规章,分别为《互联网信息服务算法推荐管理规定》(“《算法推荐规定》”),《互联网信息服务深度合成管理规定》(“《深度合成规定》”)。我们将该等法律、部门规章的基本信息和主要内容总结如下。

1.《中华人民共和国网络安全法》

2016年11月7日,全国人民代表大会常务委员会(“全国人大常委会”)通过《网络安全法》(主席令第53号),该法律于2017年6月1日生效,系网络安全和监管领域的基础性法律。《网络安全法》确立依法使用网络,遵守公序良俗,不得危害网络安全,不得利用网络从事违法犯罪行为,并且对网络信息的内容和传播负有一定的管理义务等义务和责任。《网络安全法》设立网络安全等级保护制度,网络安全监测预警和信息通报制度,以及要求运营者设立网络信息安全投诉、举报制度,用户信息保护制度等。

2.《中华人民共和国数据安全法》

2021年6月10日,全国人大常委会通过《数据安全法》(主席令第84号),该法律于2021年9月1日生效,系数据安全和监管领域的基础性法律。《数据安全法》要求数据处理者在开展数据处理活动时,应当依法依规,尊重公序良俗,诚实守信,履行数据安全保护义务,承担社会责任,不得危害国家安全、公共利益,不得损害个人、组织的合法权益。《数据安全法》建立数据分类分级保护制度,数据安全风险评估、报告、信息共享、监测预警机制,数据安全应急处置机制,数据安全审查制度。就数据保护义务而言,《数据安全法》要求数据处理者建立健全全流程数据安全管理制度,建立数据安全风险和事件的监测和应对机制,定期风险评估机制,建立数据出境安全评估机制,数据交易基本制度等。

3.《中华人民共和国个人信息保护法》

2021年8月20日,全国人大常委会通过《个人信息保护法》(主席令第91号),该法律于2021年11月1日生效,系个人信息保护领域的基础性法律。《个人信息保护法》以法律的形式,确立了处理个人信息的五大基本原则:合法正当必要诚信原则、目的限制原则、公开透明原则、质量原则、责任与安全原则等。《个人信息保护法》建立了个人信息的基本保护制度,以及敏感个人信息特别处理规则,个人信息跨境规则,规定了企业对个人信息进行分类管理、安全措施、制定应急预案,进行合规审计,个人信息保护影响评估,配合个人行使个人信息权益等义务和相应责任。

4.《中华人民共和国科学技术进步法》

2021年12月24日,全国人大常委会通过《科学技术进步法》(主席令第103号),该法律于2022年1月1日生效,系科学技术领域的基础性法律。《科学技术进步法》建立了科技创新、开发、应用领域基本制度,落实重大改革创新举措,提供宽松的科研环境,保护自由探索等权益;鼓励科学技术研究开发,支撑实现碳达峰碳中和目标;深入推进科技体制改革,加强基础研究,优化区域创新布局,完善科技型企业上市融资制度;完善科技人员管理制度,鼓励科研单位激励科学技术人员等。

基于《网络安全法》《数据安全法》和《个人信息保护法》等法律法规对网信部门的授权,以及国务院《关于授权国家互联网信息办公室负责互联网信息内容管理工作的通知》(国发(2014)33号),国家网信办负责统筹协调全国网络安全工作、网络数据安全、个人信息保护工作以及全国互联网信息内容的监督管理和执法工作。

5.《互联网信息服务算法推荐管理规定》

2021年12月31日,国家网信办等四部门发布了《算法推荐规定》(网信办令第9号)。《算法推荐规定》于2022年3月1日起生效。《算法推荐规定》明确了算法推荐服务的涵盖范围,及其监管机关;为服务提供者明确了信息服务规范,要求服务提供者应当坚持主流价值导向,积极传播正能量,并采取措施防范和抵制不良或违法信息;明确了用户权益保护要求,如公示服务的基本原理、目的意图和主要运行机制等,并保障算法选择权,禁止不合理的差别待遇;同时规定了推荐算法备案及其监管工作。

6.《互联网信息服务深度合成管理规定》

2022年11月25日,国家网信办联合工信部和公安部两部门共同颁布了《深度合成规定》(网信办第12号令)。《深度合成规定》于2023年1月10日起生效。作为我国第一部针对深度合成服务治理的专门性部门规章,《深度合成规定》系AIGC领域的核心监管规定。《深度合成规定》明确了深度合成技术的范围、监管部门和基本原则,鼓励相关行业组织加强行业自律,履行消费者及其个人信息的保护义务,明确服务提供者和技术支持者的管理规范和主体责任。

据艾瑞咨询,2023年中国AIGC产业应用的主要分为两大板块,消费级终端和行业解决方案。其中,消费级终端包括文本、图片、音视频等内容生成,以及行业解决方案包括游戏、媒体/影视、广告营销、电商、金融、在线教育、金融等方面。也就是说,目前的生成式AI服务,主要以通过互联网向上网用户提供信息的服务活动,如文字、图片、音视频或其他文化产品的方式,常以网页版、移动应用程序(包括SDK和API)等方式直接向用户提供服务,或者利用互联网用户账号和AIGC在网络平台面向社会公众发布文字、图片、音视频等信息内容。因此,我国目前与AIGC直接相关的法律法规、政策和标准还包括:

二、值得AIGC服务提供者关注的合规建议

综合上述规定,我们建议服务提供者在提供AIGC前或过程中,履行以下几方面的义务:

(1)建立健全对AIGC的内容审核机制,提高AIGC的准确性和可靠性,建立违法和不良信息识别模型并进行模型优化训练等。具体来说,尤其应当关注《网络安全法》《互联网信息服务管理办法》等法律,并避免出现该等规定明确列举的以下信息:(一)反对宪法所确定的基本原则的;(二)危害国家安全,泄露国家秘密,颠覆国家政权,推翻社会主义制度,煽动分裂国家,破坏国家统一的;(三)损害国家荣誉和利益的;(四)宣扬恐怖主义、极端主义,宣扬民族仇恨、民族歧视,破坏民族团结的;(五)破坏国家宗教政策,宣扬邪教和封建迷信的;(六)散布谣言,扰乱社会秩序,破坏社会稳定的;(七)散布淫秽、色情、赌博、暴力、凶杀、恐怖或者教唆犯罪的;(八)编造、传播虚假信息扰乱经济秩序和社会秩序;(九)侮辱或者诽谤他人,侵害他人名誉、隐私、个人信息、知识产权和其他合法权益的;(十)含有法律、行政法规禁止的其他内容的。

(2)按照《深度合成规定》等法律法规,一方面完成使用者的事前真实身份信息认证;另一方面在《深度合成规定》指定的智能对话、合成人声、人脸/姿态操控或替换、沉浸式拟真等场景中,参考《生成式人工智能服务内容标识方法》对生成文本、图片、音频、视频等内容时对生成内容进行显式或隐式标识。

(3)在发现违法内容或违法使用者时,应当采取包括向有关部门报告等应对措施。具体来说,如发现违法内容,服务提供者还应当及时采取停止生成、停止传输、消除等处置措施,并采取模型优化训练等措施进行整改等;如发现使用者从事违法活动的,服务提供者还应当依法依约采取警示、限制功能、暂停或者终止向其提供服务等处置措施,并保存有关记录。我们认为,相较于《AI服务办法》征求意见稿中要求的“在3个月内通过模型优化训练等方式防止再次生成”,《AI服务办法》提供了更为可行的“采取模型优化训练”等整改措施要求。

(4)采取有效措施反对不良信息的传播,如建立健全辟谣机制、设置便捷的用户申诉和公众投诉、举报入口等,以确保提升生成式AI服务的透明度,提高生成内容的准确性和可靠性。

另外,如果AIGC涉及网络信息、网络音视频信息的制作与传播方面的内容,或者内容涉及具有舆论属性或社会动员能力的、新闻信息服务、文化服务、视听节目等,服务提供者还应当重点关注上述国家网信办《网络信息内容生态治理规定》《网络音视频信息服务管理规定》《具有舆论属性或社会动员能力的互联网信息服务安全评估规定》等规定。

三、社会公德与伦理道德体系梳理

《AI服务办法》所提到的尊重“社会公德和伦理道德”,其范围较为模糊。我们简要梳理了以下几部文件,试图探索一个社会公德和伦理道德的指引和可落地的抓手,供读者参考。

经过上述《新一代人工智能发展规划》《新一代人工智能治理原则——发展负责任的人工智能》等阶段的探索,结合国内外对AI技术及伦理规范的实践经验和教训,科技部在《国家新一代人工智能标准体系建设指南》中指出,AI安全/伦理标准应当贯穿于包括AI基础共性、支撑技术与产品、基础软硬件平台、关键通用技术、关键领域技术、产品与服务和行业应用等在内的AI标准体系结构其他部分,为AI建立合规体系。

2021年1月,信安标委秘书处在《网络安全标准实践指南——人工智能伦理安全风险防范指引》将AI伦理安全风险总结为以下五大方面:(1)失控性风险,如AI的行为与影响超出服务提供者预设、理解和可控的范围,对社会价值等产生负面影响;(2)社会性风险:不合理使用AI而对社会价值等方面产生负面影响;(3)侵权性风险:AI对人的基本权利,包括人身、隐私、侵权性风险财产等造成侵害或产生负面影响;(4)歧视性风险:AI对人类特定群体具有主观或客观偏见,影响公平公正、造成权利侵害或负面影响;(5)责任性风险:AI相关各方行为失当、责任界定不清,对社会信任、社会价值等方面产生负面影响。

2021年9月,AI委员会发布的《新一代人工智能伦理规范》提出了“增进人类福祉、促进公平公正、保护隐私安全、确保可控可信、强化责任担当、提升伦理素养”等6项AI基本伦理规范;形式上,伦理规范包括管理规范、研发规范、供应规范和使用规范等。

2022年3月,中共中央办公厅、国务院办公厅印发《关于加强科技伦理治理的意见》,提出“科技伦理是开展科学研究、技术开发等科技活动需要遵循的价值理念和行为规范,是促进科技事业健康发展的重要保障”,并明确了以下五大类科技伦理原则:增进人类福祉、尊重生命权利、坚持公平公正、合理控制风险和保持公开透明。《人工智能伦理治理标准化指南》对前述《意见》进行进一步细化。

2023年4月,科技部印发《科技伦理审查办法(试行)》(征求意见稿),要求从事AI科技活动的企业设立科技伦理(审查)委员会,并向科技伦理主管部门提交年度工作报告。8月,社科院发布《人工智能法示范法1.0(专家建议稿)》,规定了以人为本、安全、公开透明可解释、可问责、公平平等、绿色原则和促进发展创新等七项原则。在管理制度方面,该示范法还提出分类管理制度和负面清单管理制度,即社科院建议国家AI主管机关制定负面清单,要求申请负面AI。需要注意的是,这两部文件虽然处于征求意见稿或专家建议稿的阶段,暂不具有法律效力,但是仍然值得作为AIGC伦理问题的向导而引起关注。

四、值得AIGC服务提供者关注的伦理建议

结合上述文件等各项规定,我们推荐相关企业就AIGC关注以下几个方面的伦理准则:

(1)符合我国主流社会价值观。具体来说,服务提供者可以基于提升社会价值的目标,明确AIGC的内容边界,预估其可能的影响范围,并采取措施为必要的AIGC确认社会主义核心价值观的解释依据;

(2)尊重并保护个人合法权益。具体来说,服务提供者一方面可以拒绝或避免开发以损害他人权益为主要目的的,或者容易受到恶意利用的AIGC技术;另一方面,在为生成式AI添加环境感知并独立生成AIGC相关功能时,或者检测到AIGC涉及公共服务、健康卫生、金融服务等涉及不特定多数人的利益时,服务提供者可以对用户进行特别提示,并采取必要措施保护个人人身、隐私、财产等权利,如当检测到AIGC可能影响个人权利时,相应内容应当具有清晰、明确、可查的法律法规等依据,同时采取措施避免泄露个人信息、个人隐私等可能侵害个人权益的内容。

(3)积极推动AIGC伦理安全建设,如建立健全覆盖管理、研发、供应、使用等全生命周期的风险治理体系、事件应对体系等。具体来说,针对面向用户的AIGC,服务提供者可以采取建立验证算法、风险预警、记录和回溯机制等必要措施,持续监测和降低风险;同时定期分析风险监控报告并反馈和优化管理机制,完善治理体系;另一方面,在企业内部持续进行防范措施宣传培训工作。服务提供者可以建立事件应对体系,设立人工紧急干预机制、中止应用机制、救济金基金等必要保障机制;明确事故处理流程,确保可以在AI伦理安全风险发生时作出及时响应,如停止问题产品生产、召回问题产品等;如条件允许,可以设置企业内救济金基金,或通过购买保险服务等必要手段,对引起的损失提供救济。

(4)在提升AI系统、产品和服务的可解释性、可控性和透明度的同时,可以通过用户协议、站内信、弹窗甚至公告等形式及时、准确、完整、清晰、无歧义地向用户说明AI系统、产品或服务的功能、局限、安全风险和可能的影响,以便用户准确判断AIGC是否存在误导、偏见等情况;并建议用户以良好目的使用AI、充分体现AIGC的积极作用,不应以有损社会价值、个人权利等目的恶意使用。另一方面,企业应以清楚明确且便于操作的方式向用户提供拒绝、干预及停止使用AI相关系统、产品或服务的机制;在用户拒绝或停止使用后,应尽可能为用户提供非人工智能的替代选择方案;同时向用户提供清楚明确且便于操作的投诉、质疑与反馈机制,并提供包含人工服务在内的响应机制,进行处理和必要补偿。

[参考文献]

1. 最高人民法院司法案例研究院,国家互联网信息办公室等四部门发布《互联网信息服务算法推荐管理规定》全文及官方解读,

https://mp.weixin.qq.com/s/kRgz7eaZdvolPovO7cF0rw,最后访问于2023年9月3日。

2. 艾瑞,2023年中国AIGC产业全景报告,艾瑞咨询,

https://mp.weixin.qq.com/s/xz8HbD34CFr70mbxnv1lmw,最后访问于2023年9月3日。

3. 陈伟、颜炳琳、葛正一,《生成式人工智能服务管理暂行办法》正式施行,框定我国AIGC监管思路

https://www.junhe.com/legal-updates/2243,最后访问于2023年9月3日。

4. 普华永道,政策解码:从合规领域视角探寻AIGC服务监管的创新与治理边界,普华永道,

https://mp.weixin.qq.com/s/eFIsiL1NEIw16S0jyyp6EQ,最后访问于2023年9月3日。

5. 胡珉琦:人工智能伦理:有原则不等于能治理,中国科学报,

https://news.sciencenet.cn/sbhtmlnews/2022/6/369642.shtm,最后访问于2023年9月3日。

6. 张平:人工智能伦理反思:风险与应对,中国社会科学报,

https://epaper.csstoday.net/epaper/read.do?m=i&iid=6311&eid=44129&sid=204130&idate=12_2022-05-31,最后访问于2023年9月3日。

7. 刘永谋等,人工智能的伦理挑战与科学应对,光明日报,

https://news.gmw.cn/2023-04/10/content_36486021.htm,最后访问于2023年9月3日。

8. 池骋,人工智能治理 | 世界卫生组织《人工智能伦理与治理指南》评述,清华大学智能法治研究院,

https://mp.weixin.qq.com/s/UEQiIESCpHVXO_EgQoe3ZQ,最后访问于2023年9月3日。

9. 董子涵、任凤琴,困境与超越:人工智能的伦理审视, 科技智囊,

https://mp.weixin.qq.com/s/l6qzhrr6rs9uzzkyh0H4_g,最后访问于2023年9月3日。

10. 韩冰意、苏中,“信息茧房”、隐私外泄,如何应对人工智能带来的伦理风险?,阿里研究院,

https://mp.weixin.qq.com/s/Ok2f4SKKxSc6Nehr4-aBEg,最后访问于2023年9月3日。

特别声明

以上所刊登的文章仅代表作者本人观点,不代表北京市中伦律师事务所或其律师出具的任何形式之法律意见或建议。

如需转载或引用该等文章的任何内容,请私信沟通授权事宜,并于转载时在文章开头处注明来源于公众号“中伦视界”及作者姓名。未经本所书面授权,不得转载或使用该等文章中的任何内容,含图片、影像等视听资料。如您有意就相关议题进一步交流或探讨,欢迎与本所联系。

Constantin:

4秒前:do?

Gassan:

9秒前:《人工智能伦理治理标准化指南》对前述《意见》进行进一步细化。

Vandave:

2秒前:《网络安全法》设立网络安全等级保护制度,网络安全监测预警和信息通报制度,以及要求运营者设立网络信息安全投诉、举报制度,用户信息保护制度等。

金斯顿·福斯特:

3秒前:未经本所书面授权,不得转载或使用该等文章中的任何内容,含图片、影像等视听资料。