查看原文
其他

ChatGPT等生成式AI监管规定来了,数据来源需合法!

北大法宝 2023-04-12
⊙ 本文长约5000字,阅读需时7分钟
本文来源:中国网信网、北大法宝法律法规库
《北京航空航天大学学报(社会科学版)》2023年第2期
作者:赵精武,北京航空航天大学法学院副教授,硕士生导师


为促进生成式人工智能技术健康发展和规范应用,根据《中华人民共和国网络安全法》等法律法规,国家互联网信息办公室起草了《生成式人工智能服务管理办法(征求意见稿)》,现向社会公开征求意见。公众可通过以下途径和方式提出反馈意见:

  1.登录中华人民共和国司法部 中国政府法制信息网(www.moj.gov.cn、www.chinalaw.gov.cn),进入首页主菜单的“立法意见征集”栏目提出意见。

  2.通过电子邮件方式发送至:wajscy@cac.gov.cn。

  3.通过信函方式将意见寄至:北京市海淀区阜成路15号国家互联网信息办公室网络安全协调局,邮编100048,并在信封上注明“生成式人工智能服务管理办法征求意见”。

  意见反馈截止时间为2023年5月10日。
  附件:生成式人工智能服务管理办法(征求意见稿)


国家互联网信息办公室

2023年4月11日

01


专家建议

赵精武:ChatGPT立法应着重关注的三大问题

生成型预训练变换模型(Chat Gegerative Pre-trained Transformer,ChatGPT)因其强大的功能而爆火出圈,无论是短文撰写、新闻编辑,还是代码编写、时事点评,ChatGPT均能胜任。因此,国内外市场对于ChatGPT所代表的人工智能产业抱有较高的期待。部分专家甚至认为,ChatGPT能够通过取代人类完成部分重复性、模块化的工作任务,进而对社会人力资源分配和产业结构优化产生直接的推动效用。然而,技术创新从来都是与风险相伴的,ChatGPT也不例外−ChatGPT一旦被滥用,虚假信息泛滥、用户数据泄露、内嵌的算法歧视以及知识产权侵权等一系列风险也将随之而至。

以网络安全风险为例,ChatGPT的自动编写代码功能在提升代码编写效率的同时,也会被黑客用于辅助编写恶意代码,网络安全态势势必更加严峻。具体表现为:其一,ChatGPT的代码编写功能将拓展黑客攻击的技术工具,使得原有的网络攻击呈现更加庞大的规模化趋势。ChatGPT能够辅助黑客高效完成恶意软件的编写,如此一来,黑客针对关键信息基础设施进行有组织、有规模的网络安全攻击的频次将会增加。同时,过去以大型企业为主要目标的攻击模式可能转变为囊括大中小型企业的攻击模式。其二,ChatGPT的信息编写功能能够辅助网络诈骗分子生成规模化、低成本的网络钓鱼软件,并且生成的诈骗信息具有智能化特征,使得被诈骗者识别信息真伪的难度进一步增加。其三,ChatGPT的信息编写功能可能会导致网络虚假信息泛滥,并且网络用户更加难以甄别这些信息的真伪,由此将导致网络空间舆情治理压力增大。

面对ChatGPT滥用可能导致的种种风险,国内外学者纷纷提出了具有前瞻性的治理方案。有专家、学者提出,应对ChatGPT需“制定专门立法”“制定配套措施”。实际上,ChatGPT的市场成功不等于人工智能产业取得了突破性创新发展,相对应的风险治理思路更应当考虑现有的技术水平。结合ChatGPT所具有的如仅能完成重复性和模块化的工作内容、输出结果准确率无法保障、知识更新周期慢、算力资源需求庞大等技术特征,监管机构没有必要立即将尚处探索阶段的ChatGPT作为现阶段网络空间治理的核心立法任务因为凭借不确定的技术应用场景和难以预测的安全风险径直推导出“法律需要对ChatGPT进行专门立法规制”,只会陷入“一项技术对应一条法律制度”的谬误之中。

法律与技术的关系并非简单的治理与被治理的关系,而是表现为被需要与需要的关系。技术在不同的发展阶段,往往存在差异化的制度需求,或是产业促进制度,或是禁止性规范,或是对既有立法体系的法律解释与概念重述。在目前ChatGPT技术尚未落地应用之前,过于超前地规划立法方案和制度建构路径,可能会压制技术的创新。区块链、元宇宙等领域同样存在类似问题,专门立法和配套措施等治理思路并不能真正解决这些问题,同时还可能会致使法律偏离原本的功能定位。

事实上,中国已先后颁布了《中华人民共和国网络安全法》《网络信息内容生态治理规定》《互联网信息服务算法推荐管理规定》等法律法规,针对人工智能技术和算法技术滥用问题规定了详细的法定义务和监管体系,足以应对短期内ChatGPT可能带来的各类技术安全适时风险。中国监管部门完全可以利用现有法律制度,规范ChatGPT的相关产业活动未来在经验成熟时,可以考虑启动人工智能技术应用领域的立法,以应对各种潜在的安全风险。

首先,重点监管大型企业研发活动,落实人工智能技术标准ChatGPT对于算法、数据乃至服务器的需求量惊人,具备开发能力的主体大多限于超大型互联网企业或技术公司。在相关产品投入市场之前,可以利用算法备案机制,对存在影响网络安全和国家安全可能性的产品或服务进行安全性审查。此外,相较于对用户使用行为进行监管,从源头上对研发企业进行监管的成效可能会更加显著,且研发企业也有技术水平和能力对恶意软件代码片段编写功能加以限制。

其次,明确研发机构、网络平台经营者对于人工智能产品应用的安全风险评估义务ChatGPT及其类似产品本身不具有社会危害性,但以不当方式使用则可能会导致一定的损害后果。针对ChatGPT可能引发的网络钓鱼邮件等网络诈骗风险,应当明确作为“危险制造者”的研发机构、网络平台经营者在将此类产品投入市场之前必须进行安全风险评估,确保风险可控。

最后,需要重点关注以人工智能信息审核技术规制人工智能可能诱发的虚假信息泛滥风险为了避免滥用ChatGPT等人工智能技术生成大量难以通过自动化批量审核的虚假信息内容,监管机构以及网络平台经营者可能需要进一步提升监管技术,以人工智能监管科技来规范人工智能生成的内容。根据ChatGPT这类产品的发展水平和生成信息内容特征,鼓励行业协会、大型企业或第三方专业机构积极推进人工智能违规信息审核产品的研发和推广。

02


征求意见稿全文

生成式人工智能服务管理办法

(征求意见稿)

  第一条 为促进生成式人工智能健康发展和规范应用,根据《中华人民共和国网络安全法》《中华人民共和国数据安全法》《中华人民共和国个人信息保护法》等法律、行政法规,制定本办法。

  第二条 研发、利用生成式人工智能产品,面向中华人民共和国境内公众提供服务的,适用本办法。

  本办法所称生成式人工智能,是指基于算法、模型、规则生成文本、图片、声音、视频、代码等内容的技术。

  第三条 国家支持人工智能算法、框架等基础技术的自主创新、推广应用、国际合作,鼓励优先采用安全可信的软件、工具、计算和数据资源。

  第四条 提供生成式人工智能产品或服务应当遵守法律法规的要求,尊重社会公德、公序良俗,符合以下要求:

  (一)利用生成式人工智能生成的内容应当体现社会主义核心价值观,不得含有颠覆国家政权、推翻社会主义制度,煽动分裂国家、破坏国家统一,宣扬恐怖主义、极端主义,宣扬民族仇恨、民族歧视,暴力、淫秽色情信息,虚假信息,以及可能扰乱经济秩序和社会秩序的内容。

  (二)在算法设计、训练数据选择、模型生成和优化、提供服务等过程中,采取措施防止出现种族、民族、信仰、国别、地域、性别、年龄、职业等歧视。

  (三)尊重知识产权、商业道德,不得利用算法、数据、平台等优势实施不公平竞争。

  (四)利用生成式人工智能生成的内容应当真实准确,采取措施防止生成虚假信息。

  (五)尊重他人合法利益,防止伤害他人身心健康,损害肖像权、名誉权和个人隐私,侵犯知识产权。禁止非法获取、披露、利用个人信息和隐私、商业秘密。

  第五条 利用生成式人工智能产品提供聊天和文本、图像、声音生成等服务的组织和个人(以下称“提供者”),包括通过提供可编程接口等方式支持他人自行生成文本、图像、声音等,承担该产品生成内容生产者的责任;涉及个人信息的,承担个人信息处理者的法定责任,履行个人信息保护义务。

  第六条 利用生成式人工智能产品向公众提供服务前,应当按照《具有舆论属性或社会动员能力的互联网信息服务安全评估规定》向国家网信部门申报安全评估,并按照《互联网信息服务算法推荐管理规定》履行算法备案和变更、注销备案手续。

  第七条 提供者应当对生成式人工智能产品的预训练数据、优化训练数据来源的合法性负责。

  用于生成式人工智能产品的预训练、优化训练数据,应满足以下要求:

  (一)符合《中华人民共和国网络安全法》等法律法规的要求;

  (二)不含有侵犯知识产权的内容;

  (三)数据包含个人信息的,应当征得个人信息主体同意或者符合法律、行政法规规定的其他情形;

  (四)能够保证数据的真实性、准确性、客观性、多样性;

  (五)国家网信部门关于生成式人工智能服务的其他监管要求。

  第八条 生成式人工智能产品研制中采用人工标注时,提供者应当制定符合本办法要求,清晰、具体、可操作的标注规则,对标注人员进行必要培训,抽样核验标注内容的正确性。

  第九条 提供生成式人工智能服务应当按照《中华人民共和国网络安全法》规定,要求用户提供真实身份信息。

  第十条 提供者应当明确并公开其服务的适用人群、场合、用途,采取适当措施防范用户过分依赖或沉迷生成内容。

  第十一条 提供者在提供服务过程中,对用户的输入信息和使用记录承担保护义务。不得非法留存能够推断出用户身份的输入信息,不得根据用户输入信息和使用情况进行画像,不得向他人提供用户输入信息。法律法规另有规定的,从其规定。

  第十二条 提供者不得根据用户的种族、国别、性别等进行带有歧视性的内容生成。

  第十三条 提供者应当建立用户投诉接收处理机制,及时处置个人关于更正、删除、屏蔽其个人信息的请求;发现、知悉生成的文本、图片、声音、视频等侵害他人肖像权、名誉权、个人隐私、商业秘密,或者不符合本办法要求时,应当采取措施,停止生成,防止危害持续。

  第十四条 提供者应当在生命周期内,提供安全、稳健、持续的服务,保障用户正常使用。

  第十五条 对于运行中发现、用户举报的不符合本办法要求的生成内容,除采取内容过滤等措施外,应在3个月内通过模型优化训练等方式防止再次生成。

  第十六条 提供者应当按照《互联网信息服务深度合成管理规定》对生成的图片、视频等内容进行标识。

  第十七条 提供者应当根据国家网信部门和有关主管部门的要求,提供可以影响用户信任、选择的必要信息,包括预训练和优化训练数据的来源、规模、类型、质量等描述,人工标注规则,人工标注数据的规模和类型,基础算法和技术体系等。

  第十八条 提供者应当指导用户科学认识和理性使用生成式人工智能生成的内容,不利用生成内容损害他人形象、名誉以及其他合法权益,不进行商业炒作、不正当营销。

  用户发现生成内容不符合本办法要求时,有权向网信部门或者有关主管部门举报。

  第十九条 提供者发现用户利用生成式人工智能产品过程中违反法律法规,违背商业道德、社会公德行为时,包括从事网络炒作、恶意发帖跟评、制造垃圾邮件、编写恶意软件,实施不正当的商业营销等,应当暂停或者终止服务。

  第二十条 提供者违反本办法规定的,由网信部门和有关主管部门按照《中华人民共和国网络安全法》《中华人民共和国数据安全法》《中华人民共和国个人信息保护法》等法律、行政法规的规定予以处罚。

  法律、行政法规没有规定的,由网信部门和有关主管部门依据职责给予警告、通报批评,责令限期改正;拒不改正或者情节严重的,责令暂停或者终止其利用生成式人工智能提供服务,并处一万元以上十万元以下罚款。构成违反治安管理行为的,依法给予治安管理处罚;构成犯罪的,依法追究刑事责任。

  第二十一条 本办法自2023年 月 日起实施。



-END- 



编辑排版丨金梦洋
审核人员丨张文硕本文声明丨本文章仅为交流之目的,不代表北大法宝的法律意见或对相关法规/案件/事件等的解读。 
▼ 往期精彩回顾 ChatGPT爆火引发“饭碗焦虑”暗藏侵权风险 专家建议立法促进人工智能快速健康发展
OpenAI独家回应|ChatGPT为何不向所有中国用户开放注册?
ChatGPT的创新与挑战
什么都懂的ChatGPT如何看待爱情?
法宝重磅 | ChatGPT来了,法宝人工智能研究院告诉你真相
ChatGPT来袭,法律人真的要失业了吗?
专访ChatGPT:2023涉外律师高度关注的十个问题,我给出了高质量回答
高绍林:ChatGPT法律智能化应用及其规制
会议综述丨“ChatGPT对法律人工智能研发和立法的影响”研讨会成功举行

点击下方公众号名片

获取更多信息

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存